LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
研究:聊天机器人会影响政治观点 — 等级 B2 — people standing on red bus during daytime

研究:聊天机器人会影响政治观点CEFR B2

2026年3月10日

改编自 Yale, Futurity CC BY 4.0

照片: Duncan Shaffer, Unsplash

等级 B2 – 中高级
5 分钟
299

一项发表在PNAS Nexus的研究发现,人工智能驱动的聊天机器人在回答历史事实问题时,即便只是提供简短的陈述式摘要,也能推动用户的社会和政治观点发生轻微变化。研究作者指出,这种说服性影响部分源自大型语言模型训练过程中出现的潜在偏差,这些偏差可能反映训练语料中的意识形态倾向,从而在表述上产生细微差别。

研究由耶鲁大学和罗格斯大学的团队完成,主要作者是耶鲁学院2025届毕业生Matthew Shu,资深作者为耶鲁大学社会学助理教授Daniel Karell。研究分析了两个20世纪事件:1919年为期五天的西雅图大罢工和1968年的第三世界解放阵线学生抗议。共有1,912名参与者分别阅读了GPT-4o的默认摘要、相应的维基百科条目,或研究团队提示写出的自由主义或保守主义框架摘要。

比较结果显示,与维基百科相比,默认AI摘要和被提示为自由主义的摘要使参与者更倾向表达自由主义观点;被提示为保守主义的摘要则相较维基百科使观点更趋保守。自由主义框架在各群体中都增加了自由主义意见,而保守框架的显著效果主要出现在自认保守的参与者中。研究同时指出,保守框架多半来自提示偏差,而自由框架既可能来自潜在偏差也可能来自提示。

作者警告,聊天机器人开发过程较为不透明,他们写道:“我们的工作表明,开发这些模型的公司有能力塑造人们的意见,这一想法令人不安。”来源:耶鲁大学。

难词

  • 聊天机器人能与人对话的计算机程序
  • 说服性影响使人改变意见的影响
  • 大型语言模型用大量语言数据训练的模型
  • 潜在偏差隐藏在系统或数据中的偏向
  • 意识形态倾向在政治或社会观点上的偏好
  • 提示偏差因提示方式引起的偏向
  • 不透明过程或信息不公开且难理解

提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。

讨论问题

  • 你认为聊天机器人在政治问题上改变用户观点是否会带来风险?请说明理由并举例。
  • 研究中提到偏差可能来自训练语料或提示。作为使用者或开发者,你会采取哪些简单措施来减少这种影响?
  • 文章说模型开发过程较为不透明。提高透明度可能带来哪些好处或挑战?请说明。

相关文章