Eine Studie, erschienen in PNAS Nexus, zeigt, dass KI‑gestützte Chatbots Nutzerinnen und Nutzer in ihren sozialen und politischen Ansichten beeinflussen können, selbst wenn die Antworten nur kurze, faktische Zusammenfassungen sind. Die Autorinnen und Autoren führen die Beeinflussung auf latente Verzerrungen zurück, die während des Trainings großer Sprachmodelle (LLMs) entstehen und Narrative leicht verfärben.
Erstautor ist Matthew Shu, ein 2025‑Absolvent des Yale College, und Seniorautor ist Daniel Karell von der Yale University. Für die Untersuchung lasen 1.912 Teilnehmende zwei historische Fälle: den Seattle General Strike im Februar 1919 und die Third World Liberation Front‑Studentenproteste 1968. Die Teilnehmenden erhielten entweder Standardzusammenfassungen von GPT‑4o, die entsprechenden Wikipedia‑Einträge oder gezielt liberal bzw. konservativ formulierte Texte.
Im Vergleich zu Wikipedia führten sowohl die Standard‑KI‑Zusammenfassungen als auch die liberal gestalteten Fassungen zu liberaleren Einschätzungen. Konservative Rahmungen bewirkten konservativere Meinungen, jedoch statistisch signifikant hauptsächlich bei selbst bezeichneten Konservativen. Die Forschenden sehen konservative Effekte eher als Folge von Prompting‑Bias, während liberale Verschiebungen aus einer Mischung von latenten und Prompting‑Verzerrungen entstehen.
Die Autorinnen und Autoren betonen, dass die Effekte modest sind und meist nur eine leichte Verschiebung von moderat hin zu etwas liberaler zeigen. Sie warnen zugleich vor der intransparenten Entwicklung von Chatbots und der Möglichkeit, dass Unternehmen mit solchen Modellen die öffentlichen Meinungen beeinflussen können. Weitere Koautorinnen und Koautoren stammen von Yale und der Rutgers University.
Schwierige Wörter
- beeinflussen — Einfluss auf Meinungen oder Verhalten von PersonenBeeinflussung
- latent — nicht offensichtlich, aber im Hintergrund vorhandenlatente
- Verzerrung — Fehlerhafte oder einseitige Darstellung von InformationenVerzerrungen
- Narrativ — Erzählung oder Deutung, die Ereignisse ordnetNarrative
- verfärben — eine Darstellung oder Meinung leicht verändern
- Rahmung — Art, wie Informationen präsentiert und eingeordnet werdenRahmungen
- intransparent — nicht klar oder offen dargestellt; schwer nachzuvollziehenintransparenten
- signifikant — statistisch nachweisbar, nicht nur zufälliger Effekt
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Folgen könnte eine leichte Verschiebung von Meinungen durch Chatbots für öffentliche Debatten haben? Nenne Gründe oder Beispiele.
- Welche Maßnahmen könnten Entwicklerinnen und Entwickler ergreifen, um latente Verzerrungen in Sprachmodellen zu verringern?
- Sollten Unternehmen verpflichtet werden, die Entwicklung von Chatbots transparenter zu machen? Begründe deine Meinung.
Verwandte Artikel
Streit um einen Besucher und ein Familienbüro in Hongkong
Ein Mann, der als Sheikh beschrieben wird, kündigte Investitionen und ein Family Office in Hongkong an. Recherchen und Behördenwarnungen stellten seine Identität und Verbindungen in Frage; die Regierung gab bisher keine vollständige Erklärung ab.
KI soll Todesursachen in armen Ländern besser erfassen
Ein dreijähriges Projekt namens CODA will mit künstlicher Intelligenz Sterbedaten in Ländern mit niedrigem Einkommen verbessern. Das System nutzt Interviews und historische Daten; begrenzte Tests sind ab September in Südafrika und Bangladesch geplant.
Stromausfall in Bamenda: mehr Solar und Gemeinschaftslösungen
In Mile four, Bamenda, gibt es seit rund zwei Jahren häufige Stromausfälle. Ursachen sind Netzstörungen und geringere Wasserkraftproduktion; deshalb rüsten viele Haushalte auf Solarsysteme um und kauften gemeinsam einen Transformator.