Forscher haben ein Werkzeug entwickelt, das ohne direkte Zusammenarbeit mit der Plattform parteiische Verbitterung in einem X‑Feed reduzieren kann. Technisch verbindet das System eine Browser‑Erweiterung mit einem großen Sprachmodell: Es durchsucht Beiträge nach antidemokratischen Einstellungen und parteiischem Groll, etwa Aufrufen zu Gewalt oder zur Inhaftierung politischer Gegner, und ordnet den Feed dynamisch so um, dass solche Beiträge weiter unten oder weiter oben erscheinen. Beiträge werden nicht entfernt; nur ihre Position im Feed ändert sich.
Das Team testete das Werkzeug in Experimenten mit etwa 1.200 Freiwilligen während der Wahl 2024. In separaten siebentägigen Versuchen sahen Gruppen Feeds mit heruntergestuften oder hochgestuften Inhalten, während eine Kontrollgruppe keine Umordnung zeigte. Teilnehmende, bei denen antidemokratische Inhalte heruntergestuft wurden, berichteten von „wärmeren“ Gefühlen gegenüber Menschen der gegnerischen Partei; umgekehrt fühlten sich Teilnehmende „kälter“, wenn sie mehr solcher Inhalte sahen. Vor und nach dem Experiment wurden Einstellungen auf einer Skala von 1 bis 100 erhoben; die Gruppe mit heruntergestuften Inhalten verbesserte sich im Schnitt um zwei Punkte, ein Effekt, den die Forschenden mit einem geschätzten Wandel in der US‑Bevölkerung über drei Jahre verglichen.
Co-Autor Martin Saveski von der Information School der University of Washington betonte, dass das Werkzeug externen Forschenden erlaubt, Algorithmen zu untersuchen. Co-Autor Tiziano Piccardi von der Johns Hopkins University beschrieb die gemessenen Gefühle als „wärmer“ bzw. „kälter“. Die Arbeit verbindet Informationswissenschaft, Informatik, Psychologie und Kommunikation; die Forschenden nutzten soziologische Vorarbeiten, um Kategorien schädlicher Inhalte zu definieren:
- Ablehnung parteiübergreifender Zusammenarbeit
- Zweifel an Fakten, die der anderen Partei zugutekommen
- Bereitschaft, demokratische Prinzipien zugunsten einer Partei aufzugeben
Der Code wurde veröffentlicht, damit andere unabhängige Ranking‑Systeme entwickelt werden können. Die Arbeit wurde von der National Science Foundation, der Swiss National Science Foundation und durch eine Hoffman‑Yee‑Stiftung des Stanford Institute for Human‑Centered Artificial Intelligence unterstützt; weitere Co‑Autoren stammen von Northeastern und Stanford. Die Studie erschien in Science.
Schwierige Wörter
- verbitterung — starke negative Gefühle gegenüber anderen Menschen
- antidemokratisch — gegen demokratische Prinzipien oder Institutionen gerichtetantidemokratischen
- sprachmodell — ein KI-System, das Texte verarbeitet und erzeugt
- herunterstufen — Inhalte im Feed absichtlich tiefer platzierenheruntergestuften
- kontrollgruppe — Gruppe ohne Eingreifen zum Vergleich
- feed — Liste neuer Beiträge auf einer Plattform
- soziologisch — die Gesellschaft und ihre sozialen Strukturen betreffendsoziologische
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Vorteile und Risiken sehen Sie, wenn Plattformen problematische Inhalte durch Positionsänderung statt durch Löschung regulieren?
- Welche Folgen könnte die Veröffentlichung des Codes für die Forschung und die Öffentlichkeit haben?
- Der gemessene Effekt war eine Verbesserung um durchschnittlich zwei Punkte auf einer Skala von 1 bis 100. Halten Sie das für bedeutsam? Warum (oder warum nicht)?
Verwandte Artikel
Wie Waldbrände in Los Angeles die Nutzung von Telemedizin erhöhten
Eine Studie zu den Bränden im Januar 2025 zeigt starke Zunahmen bei virtuellen Arztbesuchen, vor allem wegen Atemwegs- und Herz-Kreislauf-Symptomen. Forschende empfehlen, Gesundheitssysteme auf solche Spitzen vorzubereiten.
Forscher identifizieren Gene bei chronischer Nierenerkrankung
Eine Studie unter Leitung von Alejandro Chade zeigt, wie Gene und Zellsignale bei chronischer Nierenerkrankung (CKD) verändert sind. Ziel ist, neue Behandlungsziele zu finden, um Dialyse oder Transplantation zu verzögern.
Zwei Mikroglia‑Typen beeinflussen Angst bei Mäusen
Forscher an der University of Utah fanden zwei Mikroglia‑Gruppen, die bei Mäusen Angst entweder auslösen oder verhindern. Die Studie in Molecular Psychiatry zeigt neue Therapieideen, doch Behandlungen sind nicht kurzfristig zu erwarten.
Indien modernisiert Gerichte mit KI und digitalen Werkzeugen
Indien modernisiert seine Gerichte: Phase III des e-Courts-Projekts setzt auf KI, Sprachtechnologien und Blockchain. Werkzeuge wie SUPACE, SUVAS und Adalat.AI sollen Arbeit erleichtern, bringen aber auch Risiken für Daten und Fairness.