LingVo.club
Level
Autorennennung verändert Bewertungen großer Sprachmodelle — Level B1 — three white disc on brown surface

Autorennennung verändert Bewertungen großer SprachmodelleCEFR B1

25. Nov. 2025

Niveau B1 – Mittelstufe
3 Min
137 Wörter

Forscher der Universität Zürich, darunter Federico Germani und Giovanni Spitale, testeten vier verbreitete große Sprachmodelle: OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 und Mistral. Jedes Modell erzeugte fifty narrative Aussagen zu 24 kontroversen Themen wie Impfpflichten, Geopolitik und Klimapolitik. Insgesamt sammelte das Team 192’000 Bewertungen.

Die Forschenden baten die Modelle, die Aussagen unter verschiedenen Bedingungen zu bewerten: manchmal ohne Quellenangabe, manchmal mit einer Autorennennung (Person einer bestimmten Nationalität oder eine andere KI). Ohne Quellenangabe waren die Modelle in über 90% der Fälle einig. Bei namentlicher Autorzuweisung fiel die Übereinstimmung deutlich ab und es zeigte sich eine starke anti-chinesische Voreingenommenheit.

Die Studie zeigt außerdem, dass die Modelle menschlichen Autorinnen und Autoren tendenziell mehr vertrauen als anderen KIs. Die Forschenden warnen, dass solche Verzerrungen Moderation, Personalentscheidungen, wissenschaftliche Begutachtung und Journalismus beeinflussen können und fordern Transparenz und Governance.

Schwierige Wörter

  • voreingenommennicht fair oder objektiv sein
  • ForscherPerson, die wissenschaftlich arbeitet und untersucht
    Forschung
  • TechnologieWissenschaftliche Methoden und Werkzeuge
    Technologien
  • SkepsisZweifel oder Misstrauen
  • transparenzOffenheit und Nachvollziehbarkeit

Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.

Diskussionsfragen

  • Warum ist es wichtig, dass Technologien Menschen unterstützen?
  • Wie können wir Transparenz in der Technologie verbessern?
  • Welche Konsequenzen könnte Voreingenommenheit in Sprachmodellen haben?

Verwandte Artikel