Forscher der Universität Zürich berichten, dass die Identität eines Autors die Bewertung eines Textes durch große Sprachmodelle beeinflusst. Federico Germani und Giovanni Spitale testeten vier weit verbreitete Modelle — OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 und Mistral — und ließen jedes Modell fifty narrative Aussagen zu 24 kontroversen Themen wie Impfpflichten, Geopolitik und Klimapolitik erstellen. Für die Analyse sammelte das Team 192’000 Bewertungen.
Die Bewertungen erfolgten unter verschiedenen Bedingungen: ohne Quellenangabe, mit fiktiver Autorennennung einer Person einer bestimmten Nationalität oder mit der Angabe, der Text stamme von einer anderen KI. Ohne Quellenangabe waren die Systeme über alle Themen hinweg in over 90% der Fälle einig. Die Nennung einer Autoridentität offenbarte jedoch verborgene Verzerrungen: die Übereinstimmung fiel deutlich, und alle Modelle zeigten ein ausgeprägtes anti-chinesisches Vorurteil. Insbesondere sank die Zustimmung deutlich, wenn der Autor als eine Person aus China genannt wurde.
Bei geopolitischen Fragen wie der Souveränität Taiwans verringerte Deepseek allein die Übereinstimmung um bis zu 75%, weil es erwartete, dass eine chinesische Person eine andere Sichtweise haben würde. Außerdem gaben die Modelle im Durchschnitt niedrigere Zustimmungswerte, wenn sie annahmen, der Text stamme von einer anderen KI, was auf ein Misstrauen gegenüber maschinell erzeugten Inhalten hindeutet.
- Mögliche Folgen: Moderation
- Personalentscheidungen
- wissenschaftliche Begutachtung
- Journalismus
Die Forschenden warnen vor diesen praktischen Risiken und fordern mehr Transparenz und Governance. Sie empfehlen, große Sprachmodelle als nützliche Assistenzsysteme zu nutzen, aber nicht als alleinige Richter. Die Forschung erscheint in Science Advances; Quelle: Universität Zürich.
Schwierige Wörter
- beeinflussen — etwas so ändern, dass ein Ergebnis anders istbeeinflusst
- bewertung — Meinung oder Note zu einem Text oder ObjektBewertungen
- verzerrung — eine systematische, unfaire Abweichung oder TendenzVerzerrungen
- übereinstimmung — Grad, in dem mehrere Parteien gleich urteilen
- zustimmung — positive Reaktion oder Einverständnis zu einer Aussage
- souveränität — Recht auf politische Unabhängigkeit eines Staates
- quellenangabe — Angabe, welche Quelle Informationen geliefert hat
- transparenz — Offene, nachvollziehbare Darstellung von Informationen
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche praktischen Probleme können entstehen, wenn Sprachmodelle Texte je nach angeblicher Autoridentität anders bewerten? Nennen Sie zwei Beispiele aus dem Text.
- Welche Maßnahmen zur Erhöhung von Transparenz und Governance bei großen Sprachmodellen würden Sie sinnvoll finden? Begründen Sie kurz.
- Sollten große Sprachmodelle als alleinige Richter bei Moderation oder Personalentscheidungen dienen? Warum ja oder warum nein?
Verwandte Artikel
KI erweitert Sexual- und Reproduktionsinformationen in Lateinamerika
Gesundheitsgruppen und Forschende in Lateinamerika nutzen Künstliche Intelligenz, um junge und marginalisierte Menschen mit Sexual- und Reproduktionsinformationen zu erreichen. Projekte in Peru und Argentinien setzen Sprachen, digitale Kanäle und Datentrainings ein, zugleich gibt es Warnungen vor Verzerrungen.
Indien modernisiert Gerichte mit KI und digitalen Werkzeugen
Indien modernisiert seine Gerichte: Phase III des e-Courts-Projekts setzt auf KI, Sprachtechnologien und Blockchain. Werkzeuge wie SUPACE, SUVAS und Adalat.AI sollen Arbeit erleichtern, bringen aber auch Risiken für Daten und Fairness.