等级 B2 – 中高级CEFR B2
5 分钟
284 字
人工智能工具的普及伴隨著日益增加的關注:4月報導指出 OpenAI 的 ChatGPT 達到10億每周活躍用戶,同時研究與記者也發現某些有偏見的系統已經對人們造成傷害,具體表現在醫療處理差異和招聘中對女性與黑人候選人的歧視。
德克萨斯大学奥斯汀分校的研究由 McCombs 商學院的博士生 John-Patrick Akinyemi 和 Hüseyin Tanriverdi 進行。他們研究了來自名為 AI Algorithmic and Automation Incidents and Controversies 的資料庫中、一組被指有偏見的 363 個算法,並將每個有問題的算法與一個未被指責但相似的算法進行比較,同時審查創建和使用這些算法的組織。
研究認為偏見常在模型未能反映現實複雜性時出現。如 Tanriverdi 所說:“算法必須處理一系列複雜的問題,而要把這些問題都處理好是不現實的。”研究識別出三類相關因素,會提高不公平結果的風險:
- 真實標準:當不存在公認的客觀標準時,系統容易把不同意見當作事實,從而產生偏見。
- 現實複雜性:模型簡化現實、遺漏關鍵變量,研究以阿肯色的一例說明,自動化的 Medicaid 福利判定取代護理人員上門後,某些殘障人士對進食和洗澡的幫助被切斷。
- 利益相關者參與:若系統主要由同一群體設計,就可能忽視其他用戶的需求和衝突目標。
研究結論是,減少人工智能偏見不僅要提高準確度,還需要打開“黑箱”,考慮現實的複雜性、多樣化數據輸入以及建立清晰的真實標準。該研究發表在 MIS Quarterly,資料來源為 UT Austin。
难词
- 偏見 — 對特定群體或個人的不公平看法
- 算法 — 按步驟處理問題的計算規則
- 現實複雜性 — 現實中多變且難以簡化
- 真實標準 — 可用來判斷的客觀依據
- 利益相關者參與 — 受影響群體或代表的參與
- 黑箱 — 內部過程不透明的系統
- 自動化 — 用機器或軟件自動完成工作自動化的
- 準確度 — 測量或判斷結果的正確程度
- 數據輸入 — 輸入到系統或模型的資料
提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。
讨论问题
- 你能舉一兩個日常生活或工作中可能出現人工智能偏見的例子,並說明為何會發生?
- 研究建議增加利益相關者參與和多樣化數據輸入。在實際項目中,應如何具體實施這些建議?可能遇到哪些困難?
- 如果一個服務由自動化系統判定,你認為應該採取哪些步驟來保護弱勢群體不受不公平影響?請說明理由。