數字化工具常被稱頌為透明、民主化的“顛覆者”(disrupter)。兩本新書主張,這種樂觀的看法是錯誤的,就現在使用的算法來說,它們對邊緣群體的人權構成了重大威脅。
加州大學洛杉磯分校(University of California, Los Angeles)信息學研究助理教授薩菲婭?烏莫亞?諾布爾(Safiya Umoja Noble)在介紹她研究的主題的時候,講述了促使她寫作《壓迫性算法》(Algorithms of Oppression)的一件事。2011年9月,諾布爾想了解她十歲出頭的繼女和來家里玩的侄女們會喜歡什么,為了找靈感,她在谷歌(Google)上搜索了關鍵詞“黑人女孩”。她原本是想查黑人女孩這個群體可能感興趣的東西;相反,搜索出的結果頁面充斥著色情內容。諾布爾幽默地評論道:“按照搜索結果排名羅列出來的最佳信息,對我或者我愛的孩子們來說顯然不是最佳信息。”
諾布爾承認,任何搜索結果很快都會變成歷史:一年后她又搜索了這個關鍵詞,發現色情內容得到了控制。但諾布爾主張,這種事情應該被視為系統性問題,而不是一次性的“小故障”。盡管諾布爾并未以提供種族主義內容或性別歧視內容為由狀告谷歌,但她不肯茍同一種看法,即谷歌搜索結果反映其用戶的民主傾向,盡管這種傾向可能令人遺憾。她質疑谷歌對其算法產生的結果存在失職。
您已閱讀20%(564字),剩余80%(2281字)包含更多重要信息,訂閱以繼續探索完整內容,并享受更多專屬服務。