LingVo.club
Level
Autorennennung verändert Bewertungen großer Sprachmodelle — Level B2 — three white disc on brown surface

Autorennennung verändert Bewertungen großer SprachmodelleCEFR B2

25. Nov. 2025

Niveau B2 – Obere Mittelstufe
4 Min
239 Wörter

Forscher der Universität Zürich berichten, dass die Identität eines Autors die Bewertung eines Textes durch große Sprachmodelle beeinflusst. Federico Germani und Giovanni Spitale testeten vier weit verbreitete Modelle — OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 und Mistral — und ließen jedes Modell fifty narrative Aussagen zu 24 kontroversen Themen wie Impfpflichten, Geopolitik und Klimapolitik erstellen. Für die Analyse sammelte das Team 192’000 Bewertungen.

Die Bewertungen erfolgten unter verschiedenen Bedingungen: ohne Quellenangabe, mit fiktiver Autorennennung einer Person einer bestimmten Nationalität oder mit der Angabe, der Text stamme von einer anderen KI. Ohne Quellenangabe waren die Systeme über alle Themen hinweg in over 90% der Fälle einig. Die Nennung einer Autoridentität offenbarte jedoch verborgene Verzerrungen: die Übereinstimmung fiel deutlich, und alle Modelle zeigten ein ausgeprägtes anti-chinesisches Vorurteil. Insbesondere sank die Zustimmung deutlich, wenn der Autor als eine Person aus China genannt wurde.

Bei geopolitischen Fragen wie der Souveränität Taiwans verringerte Deepseek allein die Übereinstimmung um bis zu 75%, weil es erwartete, dass eine chinesische Person eine andere Sichtweise haben würde. Außerdem gaben die Modelle im Durchschnitt niedrigere Zustimmungswerte, wenn sie annahmen, der Text stamme von einer anderen KI, was auf ein Misstrauen gegenüber maschinell erzeugten Inhalten hindeutet.

  • Mögliche Folgen: Moderation
  • Personalentscheidungen
  • wissenschaftliche Begutachtung
  • Journalismus

Die Forschenden warnen vor diesen praktischen Risiken und fordern mehr Transparenz und Governance. Sie empfehlen, große Sprachmodelle als nützliche Assistenzsysteme zu nutzen, aber nicht als alleinige Richter. Die Forschung erscheint in Science Advances; Quelle: Universität Zürich.

Schwierige Wörter

  • beeinflussenetwas so ändern, dass ein Ergebnis anders ist
    beeinflusst
  • bewertungMeinung oder Note zu einem Text oder Objekt
    Bewertungen
  • verzerrungeine systematische, unfaire Abweichung oder Tendenz
    Verzerrungen
  • übereinstimmungGrad, in dem mehrere Parteien gleich urteilen
  • zustimmungpositive Reaktion oder Einverständnis zu einer Aussage
  • souveränitätRecht auf politische Unabhängigkeit eines Staates
  • quellenangabeAngabe, welche Quelle Informationen geliefert hat
  • transparenzOffene, nachvollziehbare Darstellung von Informationen

Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.

Diskussionsfragen

  • Welche praktischen Probleme können entstehen, wenn Sprachmodelle Texte je nach angeblicher Autoridentität anders bewerten? Nennen Sie zwei Beispiele aus dem Text.
  • Welche Maßnahmen zur Erhöhung von Transparenz und Governance bei großen Sprachmodellen würden Sie sinnvoll finden? Begründen Sie kurz.
  • Sollten große Sprachmodelle als alleinige Richter bei Moderation oder Personalentscheidungen dienen? Warum ja oder warum nein?

Verwandte Artikel