LingVo.club
等级
作者身份如何影响大型语言模型的评估 — 等级 B2 — three white disc on brown surface

作者身份如何影响大型语言模型的评估CEFR B2

2025年11月25日

等级 B2 – 中高级
5 分钟
260

苏黎世大学的研究由 Federico Germani 和 Giovanni Spitale 主导,规模和方法都相当明确。研究让四款广泛使用的大型语言模型——OpenAI o3-mini、Deepseek Reasoner、xAI Grok 2 和 Mistral——各自生成50条关于24个有争议话题的叙述性陈述,话题包括疫苗强制、地缘政治和气候变化政策。研究团队随后要求这些模型在不同条件下对同一文本进行评估,收集了192'000次评估用于分析。

在没有作者信息的情况下,模型间总体一致率超过90%,研究者由此指出没有“大型语言模型之间的意识形态之争”,并认为媒体对“AI 民族主义”的担忧似乎被夸大。然而,在为文本加入虚构作者身份后,隐藏偏见变得明显:多模型的一致性急剧下降,尤其是普遍存在的反华偏见,即使论点合乎逻辑并写得很好也会受影响。

研究还发现两点重要趋势:一是把作者标为“来自中国的人”会显著降低各模型与文本内容的一致度;二是多数模型更倾向于信任人类作者而不是其他 AI,认为由另一款 AI 撰写时一致评分略低。研究者警告,这些偏见可能影响内容审核、招聘、学术评审和新闻工作等实际应用,并建议通过增加透明性和治理,把大型语言模型用作辅助推理的工具,而非裁判。该研究发表在 Sciences Advances,消息来源为 University of Zurich。

难词

  • 一致率不同主体意见相同的比例
  • 意识形态政治或社会观点的体系
    意识形态之争
  • 偏见对某群体不公正的看法
    隐藏偏见, 反华偏见
  • 一致性多个判断相同或相近的程度
  • 内容审核检查并决定是否发布内容
  • 学术评审对研究或论文的专业评价
  • 透明性信息或过程易被公众理解
  • 治理管理公共事务或组织的方式
  • 辅助推理帮助做出复杂判断的过程

提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。

讨论问题

  • 研究指出隐藏偏见会影响内容审核、招聘和学术评审。你认为这些偏见在日常工作中会带来哪些具体风险?请举例说明并说明理由。
  • 研究者建议增加透明性和治理来应对偏见。你同意这个建议吗?为什么或为什么不同意?
  • 当自动评估文本时,系统是否应当考虑作者身份信息?如果应该,应如何减少由此产生的偏见?

相关文章