📖+30 XP
🎧+20 XP
✅+35 XP
以人为本的 AI 反思CEFR B1
2026年4月21日
改编自 Guest Contributor, Global Voices • CC BY 3.0
照片: Marija Zaric, Unsplash
等级 B1 – 中级CEFR B1
3 分钟
142 字
作者认为,技术不是中立的,而是反映设计者的世界观。训练数据来自互联网和公开记录,往往带有被排斥、种族主义、性别歧视和经济不平等的历史痕迹。AI 从这些数据学习时,可能把既有伤害编码并放大。
文章还指出,企业的利润动机、股东和增长目标会影响系统开发与部署,决定哪些问题先被解决以及产品推出的速度。作者用“附带损害”来描述在企业竞速中受影响的人群。
作者警告去人性化的风险,特别是在军事或类似情境中,人可能被简化为数据点并作为目标。她呼吁采用以人权为核心的方法,在技术和商業化早期就质问谁建造了系统、如何运作以及谁从中获益。
难词
- 训练数据 — 用于训练模型的信息集合
- 种族主义 — 以种族歧视他人的观念
- 性别歧视 — 因性别而不公平对待别人
- 经济不平等 — 收入或资源分配不公平
- 编码 — 把信息转换成数据
- 附带损害 — 由于行动造成的额外伤害
- 去人性化 — 把人当作对象或数字看待
提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。
讨论问题
- 你同意作者说技术反映设计者的世界观吗?请说明一个理由。
- 作者提到企业利润动机会影响开发。你认为公司应如何在利润和社会责任之间做平衡?
- 文章建议在早期质问谁建造系统、如何运作和谁受益。你觉得把人权放在核心有什么好处?