LingVo.club
📖+30 XP
🎧+20 XP
+35 XP
不要把 AI 当人看 — 等级 B1 — puppet using tablet

不要把 AI 当人看CEFR B1

2026年4月16日

改编自 Daria Dergacheva, Global Voices CC BY 3.0

照片: Brett Jordan, Unsplash

等级 B1 – 中级
3 分钟
161

大型语言模型自 OpenAI 推出 ChatGPT 后,改变了公众对于人工智能的讨论。生成式 AI 带来了混合影响:它为部分程序员提供新工具,也扰乱了教育,并且在某些情况下被用于战争。同时,许多 AI 公司尚未找到稳定的盈利模式,但公司高层仍常鼓吹将模型拟人化。

公众的混淆部分来自技术和表述方式。OpenAI 描述 ChatGPT 为在大型“语料库”上“训练”,用“神经网络”生成“自然语言”。错误常被称为“幻觉”,但研究者指出这些本质上是统计学失误,估计错误率约为 25–30%。

Anthropic 发布的《Claude’s Constitution》鼓励 Claude 以好奇开放的态度看待自身。法律学者 Luisa Jarovsky 警告,这类表述可能赋予 AI 不应有的道德或法律地位。研究者和语言学家建议改变用语,媒体与政策应更多关注安全、权利以及人类创造力和连接。

难词

  • 大型语言模型在很多文本上训练的计算机模型
  • 生成式能创造新文本或内容的技术
  • 语料库收集并保存文本资料的数据库
  • 神经网络模仿大脑连接的计算机模型
  • 幻觉系统给出的不真实或错误信息
  • 拟人化把非人事物当人一样描述或对待
  • 扰乱使正常秩序或活动变得混乱
    扰乱了

提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。

讨论问题

  • 你觉得媒体在报道 AI 时应如何改变用语,才能减少公众混淆?请说明一两点。
  • 生成式 AI 对教育和程序员都有影响,你认为学校应该如何应对这些变化?
  • 公司高层常鼓吹将模型拟人化,你认为这种做法有什么利弊?请举例说明。

相关文章