📖+30 XP
🎧+20 XP
✅+35 XP
不要把 AI 当人看CEFR B1
2026年4月16日
改编自 Daria Dergacheva, Global Voices • CC BY 3.0
照片: Brett Jordan, Unsplash
等级 B1 – 中级CEFR B1
3 分钟
161 字
大型语言模型自 OpenAI 推出 ChatGPT 后,改变了公众对于人工智能的讨论。生成式 AI 带来了混合影响:它为部分程序员提供新工具,也扰乱了教育,并且在某些情况下被用于战争。同时,许多 AI 公司尚未找到稳定的盈利模式,但公司高层仍常鼓吹将模型拟人化。
公众的混淆部分来自技术和表述方式。OpenAI 描述 ChatGPT 为在大型“语料库”上“训练”,用“神经网络”生成“自然语言”。错误常被称为“幻觉”,但研究者指出这些本质上是统计学失误,估计错误率约为 25–30%。
Anthropic 发布的《Claude’s Constitution》鼓励 Claude 以好奇开放的态度看待自身。法律学者 Luisa Jarovsky 警告,这类表述可能赋予 AI 不应有的道德或法律地位。研究者和语言学家建议改变用语,媒体与政策应更多关注安全、权利以及人类创造力和连接。
难词
- 大型语言模型 — 在很多文本上训练的计算机模型
- 生成式 — 能创造新文本或内容的技术
- 语料库 — 收集并保存文本资料的数据库
- 神经网络 — 模仿大脑连接的计算机模型
- 幻觉 — 系统给出的不真实或错误信息
- 拟人化 — 把非人事物当人一样描述或对待
- 扰乱 — 使正常秩序或活动变得混乱扰乱了
提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。
讨论问题
- 你觉得媒体在报道 AI 时应如何改变用语,才能减少公众混淆?请说明一两点。
- 生成式 AI 对教育和程序员都有影响,你认为学校应该如何应对这些变化?
- 公司高层常鼓吹将模型拟人化,你认为这种做法有什么利弊?请举例说明。