📖+40 XP
🎧+25 XP
✅+45 XP
以人为本的 AI 反思CEFR B2
2026年4月21日
改编自 Guest Contributor, Global Voices • CC BY 3.0
照片: Marija Zaric, Unsplash
等级 B2 – 中高级CEFR B2
5 分钟
261 字
本文基于作者对系列“别问 AI,问同行”的投稿,该系列由 Global Voices、Association for Progressive Communication 和 GenderIT 合作推出,也是 Global Voices 2026 年 4 月聚焦系列“对 AI 的人类视角”的一部分。作者 Hija Kamran 表示自己对新技术持谨慎态度,常常较晚采用新工具。
Kamran 强调科技公司反复表明它们的首要承诺是商业模式而不是人。她引用了俗称由 Mark Zuckerberg 说出的“参议员,我们投放广告”,并提到一位科技公司代表在被问及有害内容与广告时说,“我鼓励人们阅读我们的服务条款”。这些回应暴露出缺乏实质性透明与问责的问题。
文章解释,系统由持特定世界观的参与者设计,训练数据来自互联网与公开记录,反映被排斥、种族主义、性别歧视和经济不平等的历史。当 AI 从这些数据学习时,它可能将既有伤害编码并放大,同时把输出呈现为中性。企业激励(如利润和增长目标)也决定了优先事项,并可能造成“附带损害”。
作者特别警示去人性化的风险:在军事化情境中,人可能被简化为数据点并作为目标。她呼吁在技术开发与商业化的早期保持怀疑,把问责转向掌权者,并采用以人权为核心的方法。Hija Kamran(她/她)是 GenderIT.org 的主编,并在 APC 的妇女权利项目担任倡导策略师。
难词
- 问责 — 要求个人或机构承担责任并接受审查把问责转向掌权者
- 透明 — 信息或过程对公众公开可见实质性透明
- 附带损害 — 非预期发生的负面后果或伤害
- 去人性化 — 把人简化为数据或物件的处理方式去人性化的风险
- 商业模式 — 公司赚钱和运营的方法
- 掌权者 — 拥有权力和控制的个人或团体
- 训练数据 — 用于教机器学习的资料集合
提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。
讨论问题
- 你如何理解“把问责转向掌权者”?可以举例说明哪些具体措施可能有效?
- 文章提到训练数据反映历史不平等。作为开发者或研究者,你认为可以采取哪些方法减少这种偏见?
- 当公司把商业模式放在首位时,普通用户有哪些实际行动可以保护自己的权益?