
陳亭瑋
2021-10-01發佈
2023-02-23更新
人工智慧複製人類偏見,AI 與性別議題間的拉扯——高醫大性別所余貞誼專訪|陳亭瑋

本文轉載自科技大觀園,原文為人工智慧複製人類偏見,AI 與性別議題間的拉扯——高醫大性別所余貞誼專訪 作者|陳 …
人工智慧複製人類偏見,AI 與性別議題間的拉扯——高醫大性別所余貞誼專訪|陳亭瑋
- 本文轉載自科技大觀園,原文為人工智慧複製人類偏見,AI 與性別議題間的拉扯——高醫大性別所余貞誼專訪
- 作者|陳亭瑋(科技大觀園特約編輯)
2018 年,亞馬遜宣布停止使用 AI (artificial intelligence)篩選求職履歷,因為從招聘結果看來,這個 AI 居然嚴重的偏好男性。
2006 年機器學習演算法 (machine-learning algorithm) 突破瓶頸,讓人工智慧在某些情況,足以模擬人類的判斷,提供資訊解讀加速作業流程,如影像診斷、關鍵字判讀、資訊推薦、外文翻譯等。此外亦常見以演算法處理排序、挑選內容、過濾資訊等工作,經手人們的決策與信息流通。但快速便捷的同時,多數人不假思索信賴的演算法,也可能會反映強化已經存在的價值偏差,甚至夾帶嚴重的歧視偏見。
如同開頭的案例,2018 年亞馬遜的 AI 演算法以過去十年間招聘資料進行訓練,最終演算法「忠實」呈現了招聘男女不平均,由於難以確保該演算法對於性別的公平性,亞馬遜只得棄用。1也有資料學家指出,許多商用的臉孔辨識系統擅長辨識白人男性,換個性別膚色就會失靈。2這些偏差的起因,都與訓練資料的取樣偏誤有關。如何在導入應用之前,發覺演算法失靈以避免可能的不公,將是未來科技社會發展的重要課題。3