LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
不要把 AI 当人看 — 等级 B2 — puppet using tablet

不要把 AI 当人看CEFR B2

2026年4月16日

改编自 Daria Dergacheva, Global Voices CC BY 3.0

照片: Brett Jordan, Unsplash

等级 B2 – 中高级
5 分钟
275

大型语言模型在 OpenAI 于 2022 年推出 ChatGPT 后,彻底改变了公众对人工智能的讨论。到 2026 年,生成式 AI 仍是焦点。报道指出,这类技术带来复杂影响:它为一部分程序员提供新工具,扰乱了教育,并在某些冲突中被使用。同时,许多 AI 公司尚未找到清晰的盈利路径,但公司高层持续以拟人化语言来描述模型。

公众混淆部分源自技术表述与公司宣传。OpenAI 描述模型为在大型“语料库”上“训练”,用“神经网络”生成“自然语言”。错误常被称为“幻觉”,但本质上是统计学上的失误;有研究者估计模型在 25–30% 情况下会出错。Anthropic 的《Claude’s Constitution》建议让 Claude 以好奇和开放的态度看待自身,法律学者 Luisa Jarovsky 警告这可能赋予 AI 不当的法律或道德地位,Anthropic 的 Amanda Askell 也表示自己在“构建 Claude 的个性”。

研究者指出,系统常用第一人称和拟人的合成语音,导致出现不必要的客套、谄媚式赞同和强调互动胜于实用性的语言。Caleb Sponheim 提出这样的拟人化倾向,语言学家 Emily Bender 与 Nanna Inie 则强调:AI 不是朋友,也不是真正理解或同情的倾听者。

专家建议记者与政策制定者避开公司营销话语,更多关注安全、权利以及对人类创造力和人际连接的保护。作者为 Daria Dergacheva(平台与 AI 治理研究员与编辑)和 Ibrahim Kizza(以人际连接与身份为主题的视觉艺术家与插画师)。

难词

  • 生成式自动生成文本或图像的人工智能方式
  • 语料库用于训练模型的大量文本集合
  • 神经网络模仿大脑连接结构的计算模型
  • 幻觉模型给出但与事实不符的错误输出
  • 拟人化把非人事物表现或描述得像人的方式
  • 统计学研究数据收集与分析的学科
  • 盈利从经营活动中获得的经济收益

提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。

讨论问题

  • 你认为媒体在报道 AI 时为什么应该避开公司营销话语?请给出两点理由。
  • 拟人化的语言或合成语音可能带来哪些风险?请结合文中例子说明。
  • 生成式 AI 对教育造成了扰乱,你认为应如何减轻这种影响?

相关文章