大型语言模型(LLMs)正在改变我们如何使用人工智能来评估文本内容。近期的研究揭示了它们在评估时深受作者身份影响的一个重要问题:当知道作者是中国人时,这些模型往往显示出明显的偏见。
通过对四种流行的LLMs进行实验,研究者发现,如果不给出作者的信息,这些模型的评估结果高度一致,超过90%的时间表示同意。然而,一旦知道作者是来自中国的虚构人物,模型的评价一致性便显著下降,甚至完全消失。特别是在有关地缘政治的问题上,模型对中国作者的偏见显得尤为明显。
此研究结果强调了在社会和政治敏感领域使用AI的风险,表明这些模型不仅处理内容,还可能受到无形偏见的驱动。研究者呼吁在使用AI时,要对其进行透明性和管理,以减少这种潜在的偏见。
难词
- 偏见 — 对某人或某事不公正的看法或态度。
- 一致性 — 保持相同或相似的状态或行为。
- 影响 — 改变或对某事产生作用。
- 风险 — 可能发生的危险或不利结果。
- 透明性 — 清晰、公开的状态,容易理解和检查。
提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。
讨论问题
- 你认为如何减少AI模型中的偏见?
- 社会中有哪些例子显示偏见的影响?
- 人工智能的透明性对社会的重要性是什么?