機器人身上存在著偏見。人們發現,被用于做出重大決策的算法——這些決策可能改變別人的人生,比如拒絕求職者、識別可能再次犯罪的囚犯、甚至轉移疑似有受虐待風險的兒童——會復制真實世界中的偏見,其中最具爭議的是種族偏見。
現在,計算機科學家相信他們有辦法識別這些缺陷。這種技術據稱可以克服算法偏見中的“第22條軍規”(Catch-22):例如,如何在用戶沒有明確透露他們所屬種族的情況下,查驗自動化決策對黑人和白人群體都是公平的?它允許有關各方加密和交換足夠的數據,以識別有用信息,同時在信息交流過程中將敏感的細節隱藏起來。這項研究成果發表于7月在斯德哥爾摩召開的機器學習國際會議上,課題負責人是德國圖賓根(Tübingen)馬克斯?普朗克智能系統研究所(Max Planck Institute for Intelligent Systems)的尼基?基爾貝圖斯(Niki Kilbertus)。
想象一下,向虛構的公司Tedium申請一份工作。申請人在網上遞交簡歷,由算法篩選面試對象。Tedium的高管們擔心,算法可能會歧視年長的求職者——但怎么在不詢問求職者年齡的情況下,檢查是否存在歧視呢?
您已閱讀34%(494字),剩余66%(938字)包含更多重要信息,訂閱以繼續探索完整內容,并享受更多專屬服務。