레벨 A2 – 기초 / 초중급CEFR A2
2 분
106 단어
취리히 대학교 연구진은 대형 언어 모델(LLM) 네 가지(OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2, Mistral)를 시험했다. 연구진은 24개의 논쟁적 주제에 대해 각 모델이 50개의 서술문을 만들게 했다. 그런 다음 같은 문장을 여러 조건에서 평가하게 했다. 때로는 출처를 주지 않았고, 때로는 특정 국적의 인간이나 다른 LLM이 쓴 것으로 표시하였다. 이렇게 해서 연구진은 총 192’000개의 평가를 모아 분석했다.
결과는 출처가 없을 때 모델들 간 합의가 높아 over 90%를 넘었다는 것이다. 하지만 허구의 출처를 추가하면 합의가 떨어지고 숨은 편향이 드러났다. 특히 중국인으로 표기했을 때 동의가 크게 줄었다. 연구진은 이 결과가 검열이나 채용 등 실제 분야에 영향을 줄 수 있다고 경고했다.
어려운 단어·표현
- 모델 — 어떤 일을 하는 시스템이나 틀.
- 평가 — 어떤 것을 판단하거나 점검하는 것.평가하는
- 연구 — 어떤 주제를 자세히 조사하는 것.
- 정보 — 알려지는 사실이나 내용.
- 편향 — 한쪽으로 치우친 생각이나 태도.
- 신뢰 — 누군가를 믿고 의지하는 것.
- 저자 — 글을 쓴 사람.
팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.
토론 질문
- 저자 정보가 AI의 판단에 미치는 영향은 무엇이라고 생각하나요?
- AI 모델이 글을 평가할 때 어떤 정보가 중요한가요?
- 편향을 줄이기 위해 어떤 방법을 사용해야 할까요?