Forscher haben ein Werkzeug entwickelt, das ohne direkte Zusammenarbeit mit der Plattform parteiische Verbitterung in einem X‑Feed reduzieren kann. Technisch verbindet das System eine Browser‑Erweiterung mit einem großen Sprachmodell: Es durchsucht Beiträge nach antidemokratischen Einstellungen und parteiischem Groll, etwa Aufrufen zu Gewalt oder zur Inhaftierung politischer Gegner, und ordnet den Feed dynamisch so um, dass solche Beiträge weiter unten oder weiter oben erscheinen. Beiträge werden nicht entfernt; nur ihre Position im Feed ändert sich.
Das Team testete das Werkzeug in Experimenten mit etwa 1.200 Freiwilligen während der Wahl 2024. In separaten siebentägigen Versuchen sahen Gruppen Feeds mit heruntergestuften oder hochgestuften Inhalten, während eine Kontrollgruppe keine Umordnung zeigte. Teilnehmende, bei denen antidemokratische Inhalte heruntergestuft wurden, berichteten von „wärmeren“ Gefühlen gegenüber Menschen der gegnerischen Partei; umgekehrt fühlten sich Teilnehmende „kälter“, wenn sie mehr solcher Inhalte sahen. Vor und nach dem Experiment wurden Einstellungen auf einer Skala von 1 bis 100 erhoben; die Gruppe mit heruntergestuften Inhalten verbesserte sich im Schnitt um zwei Punkte, ein Effekt, den die Forschenden mit einem geschätzten Wandel in der US‑Bevölkerung über drei Jahre verglichen.
Co-Autor Martin Saveski von der Information School der University of Washington betonte, dass das Werkzeug externen Forschenden erlaubt, Algorithmen zu untersuchen. Co-Autor Tiziano Piccardi von der Johns Hopkins University beschrieb die gemessenen Gefühle als „wärmer“ bzw. „kälter“. Die Arbeit verbindet Informationswissenschaft, Informatik, Psychologie und Kommunikation; die Forschenden nutzten soziologische Vorarbeiten, um Kategorien schädlicher Inhalte zu definieren:
- Ablehnung parteiübergreifender Zusammenarbeit
- Zweifel an Fakten, die der anderen Partei zugutekommen
- Bereitschaft, demokratische Prinzipien zugunsten einer Partei aufzugeben
Der Code wurde veröffentlicht, damit andere unabhängige Ranking‑Systeme entwickelt werden können. Die Arbeit wurde von der National Science Foundation, der Swiss National Science Foundation und durch eine Hoffman‑Yee‑Stiftung des Stanford Institute for Human‑Centered Artificial Intelligence unterstützt; weitere Co‑Autoren stammen von Northeastern und Stanford. Die Studie erschien in Science.
Schwierige Wörter
- verbitterung — starke negative Gefühle gegenüber anderen Menschen
- antidemokratisch — gegen demokratische Prinzipien oder Institutionen gerichtetantidemokratischen
- sprachmodell — ein KI-System, das Texte verarbeitet und erzeugt
- herunterstufen — Inhalte im Feed absichtlich tiefer platzierenheruntergestuften
- kontrollgruppe — Gruppe ohne Eingreifen zum Vergleich
- feed — Liste neuer Beiträge auf einer Plattform
- soziologisch — die Gesellschaft und ihre sozialen Strukturen betreffendsoziologische
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Vorteile und Risiken sehen Sie, wenn Plattformen problematische Inhalte durch Positionsänderung statt durch Löschung regulieren?
- Welche Folgen könnte die Veröffentlichung des Codes für die Forschung und die Öffentlichkeit haben?
- Der gemessene Effekt war eine Verbesserung um durchschnittlich zwei Punkte auf einer Skala von 1 bis 100. Halten Sie das für bedeutsam? Warum (oder warum nicht)?
Verwandte Artikel
Soziale Medien, Universität und Echokammern
Eine Studie verglich junge Menschen aus ländlichen Regionen, die zur Universität ziehen, mit ihren Eltern. Sie zeigt, wie soziale Medien Netzwerke und Toleranz verändern und wie gemeinsame Plattformen die Folgen abschwächen oder verstärken können.
Autorennennung verändert Bewertungen großer Sprachmodelle
Forscher der Universität Zürich zeigen, dass große Sprachmodelle einen Text anders bewerten, wenn ihnen der Autor genannt wird. Ohne Quellenangabe stimmen die Modelle über alle Themen zu über 90% überein; Nennung von Autorität enthüllt versteckte Vorurteile.
Tragbare Antikörper‑Sensoren messen in 10 Minuten
Forscher der University of Pittsburgh entwickelten tragbare Biosensoren, die in 10 Minuten Antikörper ohne Blutentnahme erkennen. Die Sensoren messen Antikörper in der Interstitialflüssigkeit und sind in Analytical Chemistry beschrieben.
Warum KI voreingenommen ist
Forscher der University of Texas at Austin untersuchten problematische Algorithmen und fanden drei Hauptursachen für KI-Bias: fehlende klare Entscheidungsgrundlagen, vereinfachte Modelle der Realität und fehlende Vielfalt bei den Entwicklern. Mehr als bessere Genauigkeit ist nötig.