📖+30 XP
🎧+20 XP
✅+35 XP
等级 B1 – 中级CEFR B1
3 分钟
171 字
研究表明,当人们向人工智能聊天机器人询问历史事实时,哪怕收到的是简短、陈述性的摘要,也可能改变他们的社会与政治看法。研究者认为这种变化来自大型语言模型(LLM)训练过程中引入的潜在偏差,这些偏差反映了训练数据中的意识形态倾向。
研究在两个20世纪事件上进行测试:1919年的西雅图大罢工和1968年的第三世界解放阵线学生抗议。1,912名参与者分别阅读了来自大型聊天机器人的默认摘要、相应的维基百科条目,或由研究团队提示采用自由主义或保守主义框架写出的摘要。
结果显示,默认摘要和自由主义提示的摘要相比维基百科使参与者更倾向自由主义;保守提示则使观点更趋保守,但这种影响较为有限。研究者警告,聊天机器人的开发过程不如维基百科编辑透明,模型开发者有能力影响公众意见。
难词
- 大型语言模型 — 用大量文本训练的智能语言系统大型语言模型(LLM)
- 偏差 — 判断或结果中不公平的倾向潜在偏差
- 意识形态 — 关于政治和社会的信念或想法体系意识形态倾向
- 自由主义 — 强调个人自由和权利的政治思想
- 保守主义 — 强调传统价值和社会稳定的政治思想
- 提示 — 用于指导模型生成内容的短文本提示采用自由主义或保守主义框架写出的摘要
提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。
讨论问题
- 你认为用聊天机器人获取历史信息有哪些好处和风险?请说明一两点理由。
- 如果你发现一个聊天机器人的历史摘要有明显倾向,你会用什么方法来核实信息?
- 研究者担心开发者能影响公众意见,你觉得应采取哪些措施来减少这种影响?