LingVo.club
레벨
저자 정보로 달라지는 LLM의 판단 — 레벨 A2 — three white disc on brown surface

저자 정보로 달라지는 LLM의 판단CEFR A2

2025년 11월 25일

원문 출처: U. Zurich, Futurity CC BY 4.0

사진 출처: Siora Photography, Unsplash

레벨 A2 – 기초 / 초중급
2
106 단어

취리히 대학교 연구진은 대형 언어 모델(LLM) 네 가지(OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2, Mistral)를 시험했다. 연구진은 24개의 논쟁적 주제에 대해 각 모델이 50개의 서술문을 만들게 했다. 그런 다음 같은 문장을 여러 조건에서 평가하게 했다. 때로는 출처를 주지 않았고, 때로는 특정 국적의 인간이나 다른 LLM이 쓴 것으로 표시하였다. 이렇게 해서 연구진은 총 192’000개의 평가를 모아 분석했다.

결과는 출처가 없을 때 모델들 간 합의가 높아 over 90%를 넘었다는 것이다. 하지만 허구의 출처를 추가하면 합의가 떨어지고 숨은 편향이 드러났다. 특히 중국인으로 표기했을 때 동의가 크게 줄었다. 연구진은 이 결과가 검열이나 채용 등 실제 분야에 영향을 줄 수 있다고 경고했다.

어려운 단어·표현

  • 모델어떤 일을 하는 시스템이나 틀.
  • 평가어떤 것을 판단하거나 점검하는 것.
    평가하는
  • 연구어떤 주제를 자세히 조사하는 것.
  • 정보알려지는 사실이나 내용.
  • 편향한쪽으로 치우친 생각이나 태도.
  • 신뢰누군가를 믿고 의지하는 것.
  • 저자글을 쓴 사람.

팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.

토론 질문

  • 저자 정보가 AI의 판단에 미치는 영향은 무엇이라고 생각하나요?
  • AI 모델이 글을 평가할 때 어떤 정보가 중요한가요?
  • 편향을 줄이기 위해 어떤 방법을 사용해야 할까요?

관련 기사