Forscher haben ein Werkzeug entwickelt, das ohne direkte Zusammenarbeit mit der Plattform parteiische Verbitterung in einem X‑Feed reduzieren kann. Technisch verbindet das System eine Browser‑Erweiterung mit einem großen Sprachmodell: Es durchsucht Beiträge nach antidemokratischen Einstellungen und parteiischem Groll, etwa Aufrufen zu Gewalt oder zur Inhaftierung politischer Gegner, und ordnet den Feed dynamisch so um, dass solche Beiträge weiter unten oder weiter oben erscheinen. Beiträge werden nicht entfernt; nur ihre Position im Feed ändert sich.
Das Team testete das Werkzeug in Experimenten mit etwa 1.200 Freiwilligen während der Wahl 2024. In separaten siebentägigen Versuchen sahen Gruppen Feeds mit heruntergestuften oder hochgestuften Inhalten, während eine Kontrollgruppe keine Umordnung zeigte. Teilnehmende, bei denen antidemokratische Inhalte heruntergestuft wurden, berichteten von „wärmeren“ Gefühlen gegenüber Menschen der gegnerischen Partei; umgekehrt fühlten sich Teilnehmende „kälter“, wenn sie mehr solcher Inhalte sahen. Vor und nach dem Experiment wurden Einstellungen auf einer Skala von 1 bis 100 erhoben; die Gruppe mit heruntergestuften Inhalten verbesserte sich im Schnitt um zwei Punkte, ein Effekt, den die Forschenden mit einem geschätzten Wandel in der US‑Bevölkerung über drei Jahre verglichen.
Co-Autor Martin Saveski von der Information School der University of Washington betonte, dass das Werkzeug externen Forschenden erlaubt, Algorithmen zu untersuchen. Co-Autor Tiziano Piccardi von der Johns Hopkins University beschrieb die gemessenen Gefühle als „wärmer“ bzw. „kälter“. Die Arbeit verbindet Informationswissenschaft, Informatik, Psychologie und Kommunikation; die Forschenden nutzten soziologische Vorarbeiten, um Kategorien schädlicher Inhalte zu definieren:
- Ablehnung parteiübergreifender Zusammenarbeit
- Zweifel an Fakten, die der anderen Partei zugutekommen
- Bereitschaft, demokratische Prinzipien zugunsten einer Partei aufzugeben
Der Code wurde veröffentlicht, damit andere unabhängige Ranking‑Systeme entwickelt werden können. Die Arbeit wurde von der National Science Foundation, der Swiss National Science Foundation und durch eine Hoffman‑Yee‑Stiftung des Stanford Institute for Human‑Centered Artificial Intelligence unterstützt; weitere Co‑Autoren stammen von Northeastern und Stanford. Die Studie erschien in Science.
Schwierige Wörter
- verbitterung — starke negative Gefühle gegenüber anderen Menschen
- antidemokratisch — gegen demokratische Prinzipien oder Institutionen gerichtetantidemokratischen
- sprachmodell — ein KI-System, das Texte verarbeitet und erzeugt
- herunterstufen — Inhalte im Feed absichtlich tiefer platzierenheruntergestuften
- kontrollgruppe — Gruppe ohne Eingreifen zum Vergleich
- feed — Liste neuer Beiträge auf einer Plattform
- soziologisch — die Gesellschaft und ihre sozialen Strukturen betreffendsoziologische
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Vorteile und Risiken sehen Sie, wenn Plattformen problematische Inhalte durch Positionsänderung statt durch Löschung regulieren?
- Welche Folgen könnte die Veröffentlichung des Codes für die Forschung und die Öffentlichkeit haben?
- Der gemessene Effekt war eine Verbesserung um durchschnittlich zwei Punkte auf einer Skala von 1 bis 100. Halten Sie das für bedeutsam? Warum (oder warum nicht)?
Verwandte Artikel
GLO1 schützt gegen Calcium‑Schäden im Gehirn
Forscher der Yale School of Medicine fanden, dass das Protein GLO1 bei hohem zellulärem Calcium ansteigt und vor Schäden schützt. Die GLO1-Aktivität fällt mit dem Alter, was die Widerstandsfähigkeit des Gehirns gegen Degeneration senken kann.
Autorennennung verändert Bewertungen großer Sprachmodelle
Forscher der Universität Zürich zeigen, dass große Sprachmodelle einen Text anders bewerten, wenn ihnen der Autor genannt wird. Ohne Quellenangabe stimmen die Modelle über alle Themen zu über 90% überein; Nennung von Autorität enthüllt versteckte Vorurteile.
Roboter werden schneller mit SAIL
Forscher an der Georgia Tech entwickelten SAIL, ein System, das Roboter schneller als ihre menschlichen Demonstrationen arbeiten lässt. SAIL wurde in Simulation und auf realen Robotern getestet und erzielte meist drei- bis viermal höhere Geschwindigkeit ohne Genauigkeitsverlust.
Gegengift gegen indischen Schwarzskorpion
Forscher in Indien berichten über Fortschritte bei einem Gegengift gegen den indischen Schwarzskorpion. Sie kartierten das Gift, fanden viele Toxine, testeten es an Mäusen und arbeiten am Aufbau einer Referenzdatenbank und an einem Gegengift.