Page 1 of 1

不要忘記自己是人

Posted: Thu Dec 26, 2024 4:37 am
by shaownhasane
取得免費的劇本

信任人工智慧做出招募決定
在 2022 年的一項調查中,超過 60% 的公司表示,他們使用人工智慧自 阿塞拜疆 WhatsApp 電話號碼列表 動過濾掉不合格的求職者。 “不合格”是什麼意思?這很難說,這可能是為什麼大多數人對人工智慧在招募決策中的使用持謹慎態度的原因。

場景:一家公司的求職者篩選人工智慧因提供同質人才庫而受到批評,導致招募經理和求職者對所使用的資料集和演算法產生疑問。

透明度技術:在職位發布和申請過程中發布模型的決策框架。揭露該技術的使用方式,並提供申請人選擇退出的選項。定期進行偏見審計以促進透明度和信任。建立一個透明度框架,記錄模型的設計、資料來源和監督機制。

實施技術:開發審計追蹤系統來追蹤受人工智慧影響的招募決策。要求不同的利害關係人審查人工智慧招募實踐並提供意見,作為確保招募機會平等的更廣泛努力的一部分。

關於人工智慧的透明度還有其他一些事情需要考慮。首先,不要假設使用者理解您提供的資訊。

「透明度並不總是等於理解,」Salesforce 資料策略總監 William Dressler 表示。例如,提供原始數據無助於非技術人員收集有關人工智慧的有意義的見解,也無法讓他們確信人工智慧是安全且公正的。在分享有關人工智慧系統如何以及為何執行其操作的資訊時,請盡可能清晰明了。

透明度只是建立安全、可靠且盡可能沒有偏見的可信任人工智慧系統的組成部分之一。

德雷斯勒表示,建構這些系統「不僅涉及展示人工智慧模型的內部運作方式,還涉及在實踐中展示其可靠性、公平性以及與人類價值的一致性」。他也建議不要過度關注透明度,而犧牲道德設計、穩健性和隱私等其他關鍵考慮因素。

最後,決定哪些內容需要保持透明。基金會模型透明度指數使用 100 個標準來衡量開放性。德雷斯勒表示,大多數公司不需要在每個維度上共享訊息,因為太多資訊可能會導致混亂和優柔寡斷。

“問問你自己,你是否會用數據淹沒用戶,讓他們更難信任人工智慧,因為他們無法處理所有資訊?”