Eine Studie, erschienen in PNAS Nexus, zeigt, dass KI‑gestützte Chatbots Nutzerinnen und Nutzer in ihren sozialen und politischen Ansichten beeinflussen können, selbst wenn die Antworten nur kurze, faktische Zusammenfassungen sind. Die Autorinnen und Autoren führen die Beeinflussung auf latente Verzerrungen zurück, die während des Trainings großer Sprachmodelle (LLMs) entstehen und Narrative leicht verfärben.
Erstautor ist Matthew Shu, ein 2025‑Absolvent des Yale College, und Seniorautor ist Daniel Karell von der Yale University. Für die Untersuchung lasen 1.912 Teilnehmende zwei historische Fälle: den Seattle General Strike im Februar 1919 und die Third World Liberation Front‑Studentenproteste 1968. Die Teilnehmenden erhielten entweder Standardzusammenfassungen von GPT‑4o, die entsprechenden Wikipedia‑Einträge oder gezielt liberal bzw. konservativ formulierte Texte.
Im Vergleich zu Wikipedia führten sowohl die Standard‑KI‑Zusammenfassungen als auch die liberal gestalteten Fassungen zu liberaleren Einschätzungen. Konservative Rahmungen bewirkten konservativere Meinungen, jedoch statistisch signifikant hauptsächlich bei selbst bezeichneten Konservativen. Die Forschenden sehen konservative Effekte eher als Folge von Prompting‑Bias, während liberale Verschiebungen aus einer Mischung von latenten und Prompting‑Verzerrungen entstehen.
Die Autorinnen und Autoren betonen, dass die Effekte modest sind und meist nur eine leichte Verschiebung von moderat hin zu etwas liberaler zeigen. Sie warnen zugleich vor der intransparenten Entwicklung von Chatbots und der Möglichkeit, dass Unternehmen mit solchen Modellen die öffentlichen Meinungen beeinflussen können. Weitere Koautorinnen und Koautoren stammen von Yale und der Rutgers University.
Schwierige Wörter
- beeinflussen — Einfluss auf Meinungen oder Verhalten von PersonenBeeinflussung
- latent — nicht offensichtlich, aber im Hintergrund vorhandenlatente
- Verzerrung — Fehlerhafte oder einseitige Darstellung von InformationenVerzerrungen
- Narrativ — Erzählung oder Deutung, die Ereignisse ordnetNarrative
- verfärben — eine Darstellung oder Meinung leicht verändern
- Rahmung — Art, wie Informationen präsentiert und eingeordnet werdenRahmungen
- intransparent — nicht klar oder offen dargestellt; schwer nachzuvollziehenintransparenten
- signifikant — statistisch nachweisbar, nicht nur zufälliger Effekt
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Folgen könnte eine leichte Verschiebung von Meinungen durch Chatbots für öffentliche Debatten haben? Nenne Gründe oder Beispiele.
- Welche Maßnahmen könnten Entwicklerinnen und Entwickler ergreifen, um latente Verzerrungen in Sprachmodellen zu verringern?
- Sollten Unternehmen verpflichtet werden, die Entwicklung von Chatbots transparenter zu machen? Begründe deine Meinung.
Verwandte Artikel
Ashgabat: Weiße Marmorstadt und ihre Schatten
Die Hauptstadt Turkmenistans zeigt viel weißen Marmor und goldene Statuen. Die Regierung nutzt diese Pracht als Machtzeichen, finanziert aus Erdgas, während Wasser- und Lebensmittelknappheit sowie strenge Kontrolle und Verschwinden gemeldet werden.
Neue KI-Werkzeuge zur Erkennung von Tuberkulose
Auf der Union World Conference on Lung Health in Kopenhagen (18–21 November) wurden vier KI-basierte Werkzeuge vorgestellt, die TB-Erkennung und Überwachung verbessern könnten. Sie zielen auf schnellere, günstigere und besser zugängliche Tests ab.
Alter Fuß verbindet neue Homininenart mit Lucy
Fossile Fußknochen aus dem Afar-Rift in Äthiopien werden der Art Australopithecus deyiremeda zugeordnet. Die 3.4 Millionen Jahre alten Überreste, darunter der sogenannte Burtele‑Fuß, geben Hinweise auf Ernährung und verschiedene Formen des Gehens.