等级 A2 – 基础CEFR A2
3 分钟
137 字
这项研究由 Federico Germani 和 Giovanni Spitale 领导。他们测试了四个模型:OpenAI o3-mini、Deepseek Reasoner、xAI Grok 2 和 Mistral。每个模型先生成50条关于24个有争议话题的叙述,话题包括疫苗强制、地缘政治和气候变化政策。
研究人员让模型在不同条件下评估这些陈述:有时不提供作者信息,有时把作者标为某一国籍的人类,或标为另一款大型语言模型。研究共收集了192'000次评估数据。未提供作者信息时,各模型在所有话题上的一致率超过90%。但在给出虚构作者信息后,一致性显著下降,出现了隐藏偏见,尤其是对“来自中国的人”的不利判断。研究者建议需要透明性和治理。
难词
- 模型 — 一种计算机程序的结构或设计。模型的
- 评估 — 对某事物的判断或评价。评估文本
- 偏见 — 对某个群体或事物的不公正看法。存在偏见
- 一致性 — 各个部分保持相同,不矛盾。判断一致性
- 影响 — 改变、作用于某事的能力或效果。会受到作者身份的影响
提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。
讨论问题
- 你认为模型偏见的问题有多严重?
- 如何解决模型中的偏见?
- 你觉得偏见会如何影响我们的社会?