等级 B1 – 中级CEFR B1
3 分钟
161 字
人工智能正在快速普及,但研究和報道也記錄到帶有偏見的系統造成實際傷害,例如不同人口群體得到不同的醫療處理和在招聘中的歧視。
德克萨斯大学奥斯汀分校的研究者分析了一組被他人認定有偏見的算法,並把每個有問題的算法與類似但未被指責的算法進行比較,同時審查了相關的組織。研究樣本包含多個此類算法,研究者從比較中找出偏見的來源。
研究識別出三類會增加不公平結果風險的因素:缺乏可認可的真實標準(例如對 X 光判斷缺乏共識)、模型在建模時省略重要變量(如自動化決定取代上門護理導致幫助被切斷)、以及在設計時未讓多樣利益相關者參與。研究認為,減少偏見需要超出單純提高準確度的做法,還要打開“黑箱”、考慮現實複雜性並多元化輸入。
难词
- 偏見 — 對某些人不公平的看法或做法
- 算法 — 用來做決定的電腦步驟
- 組織 — 有共同目的的人或團體
- 標準 — 判斷對錯或好壞的規則
- 省略 — 把重要部分不寫或不說
- 變量 — 可能改變的數據或因素
- 黑箱 — 內部運作不透明的系統
- 利益相關者 — 受決策影響的個人或團體
提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。
讨论问题
- 在醫療領域使用人工智能時,你認為應該採取哪些措施來避免對不同人口群體不公平?
- 如果一個團隊要設計新的AI系統,哪些不同的利益相關者應該參與設計?為什麼?
- 打開「黑箱」讓系統更透明,這對公司或使用者可能有哪些好處與挑戰?