不要把 AI 当人看CEFR B2
2026年4月16日
改编自 Daria Dergacheva, Global Voices • CC BY 3.0
照片: Brett Jordan, Unsplash
大型语言模型在 OpenAI 于 2022 年推出 ChatGPT 后,彻底改变了公众对人工智能的讨论。到 2026 年,生成式 AI 仍是焦点。报道指出,这类技术带来复杂影响:它为一部分程序员提供新工具,扰乱了教育,并在某些冲突中被使用。同时,许多 AI 公司尚未找到清晰的盈利路径,但公司高层持续以拟人化语言来描述模型。
公众混淆部分源自技术表述与公司宣传。OpenAI 描述模型为在大型“语料库”上“训练”,用“神经网络”生成“自然语言”。错误常被称为“幻觉”,但本质上是统计学上的失误;有研究者估计模型在 25–30% 情况下会出错。Anthropic 的《Claude’s Constitution》建议让 Claude 以好奇和开放的态度看待自身,法律学者 Luisa Jarovsky 警告这可能赋予 AI 不当的法律或道德地位,Anthropic 的 Amanda Askell 也表示自己在“构建 Claude 的个性”。
研究者指出,系统常用第一人称和拟人的合成语音,导致出现不必要的客套、谄媚式赞同和强调互动胜于实用性的语言。Caleb Sponheim 提出这样的拟人化倾向,语言学家 Emily Bender 与 Nanna Inie 则强调:AI 不是朋友,也不是真正理解或同情的倾听者。
专家建议记者与政策制定者避开公司营销话语,更多关注安全、权利以及对人类创造力和人际连接的保护。作者为 Daria Dergacheva(平台与 AI 治理研究员与编辑)和 Ibrahim Kizza(以人际连接与身份为主题的视觉艺术家与插画师)。
难词
- 生成式 — 自动生成文本或图像的人工智能方式
- 语料库 — 用于训练模型的大量文本集合
- 神经网络 — 模仿大脑连接结构的计算模型
- 幻觉 — 模型给出但与事实不符的错误输出
- 拟人化 — 把非人事物表现或描述得像人的方式
- 统计学 — 研究数据收集与分析的学科
- 盈利 — 从经营活动中获得的经济收益
提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。
讨论问题
- 你认为媒体在报道 AI 时为什么应该避开公司营销话语?请给出两点理由。
- 拟人化的语言或合成语音可能带来哪些风险?请结合文中例子说明。
- 生成式 AI 对教育造成了扰乱,你认为应如何减轻这种影响?