LingVo.club
Level
Werkzeug verringert parteiische Verbitterung im X‑Feed — Level B2 — Street sign for democracy burning at night

Werkzeug verringert parteiische Verbitterung im X‑FeedCEFR B2

8. Dez. 2025

Adaptiert nach U. Washington, Futurity CC BY 4.0

Foto von Steve Johnson, Unsplash

Niveau B2 – Obere Mittelstufe
6 Min
309 Wörter

Forscher haben ein Werkzeug entwickelt, das ohne direkte Zusammenarbeit mit der Plattform parteiische Verbitterung in einem X‑Feed reduzieren kann. Technisch verbindet das System eine Browser‑Erweiterung mit einem großen Sprachmodell: Es durchsucht Beiträge nach antidemokratischen Einstellungen und parteiischem Groll, etwa Aufrufen zu Gewalt oder zur Inhaftierung politischer Gegner, und ordnet den Feed dynamisch so um, dass solche Beiträge weiter unten oder weiter oben erscheinen. Beiträge werden nicht entfernt; nur ihre Position im Feed ändert sich.

Das Team testete das Werkzeug in Experimenten mit etwa 1.200 Freiwilligen während der Wahl 2024. In separaten sieben­tägigen Versuchen sahen Gruppen Feeds mit heruntergestuften oder hochgestuften Inhalten, während eine Kontrollgruppe keine Umordnung zeigte. Teilnehmende, bei denen antidemokratische Inhalte heruntergestuft wurden, berichteten von „wärmeren“ Gefühlen gegenüber Menschen der gegnerischen Partei; umgekehrt fühlten sich Teilnehmende „kälter“, wenn sie mehr solcher Inhalte sahen. Vor und nach dem Experiment wurden Einstellungen auf einer Skala von 1 bis 100 erhoben; die Gruppe mit heruntergestuften Inhalten verbesserte sich im Schnitt um zwei Punkte, ein Effekt, den die Forschenden mit einem geschätzten Wandel in der US‑Bevölkerung über drei Jahre verglichen.

Co-Autor Martin Saveski von der Information School der University of Washington betonte, dass das Werkzeug externen Forschenden erlaubt, Algorithmen zu untersuchen. Co-Autor Tiziano Piccardi von der Johns Hopkins University beschrieb die gemessenen Gefühle als „wärmer“ bzw. „kälter“. Die Arbeit verbindet Informationswissenschaft, Informatik, Psychologie und Kommunikation; die Forschenden nutzten soziologische Vorarbeiten, um Kategorien schädlicher Inhalte zu definieren:

  • Ablehnung parteiübergreifender Zusammenarbeit
  • Zweifel an Fakten, die der anderen Partei zugutekommen
  • Bereitschaft, demokratische Prinzipien zugunsten einer Partei aufzugeben

Der Code wurde veröffentlicht, damit andere unabhängige Ranking‑Systeme entwickelt werden können. Die Arbeit wurde von der National Science Foundation, der Swiss National Science Foundation und durch eine Hoffman‑Yee‑Stiftung des Stanford Institute for Human‑Centered Artificial Intelligence unterstützt; weitere Co‑Autoren stammen von Northeastern und Stanford. Die Studie erschien in Science.

Schwierige Wörter

  • verbitterungstarke negative Gefühle gegenüber anderen Menschen
  • antidemokratischgegen demokratische Prinzipien oder Institutionen gerichtet
    antidemokratischen
  • sprachmodellein KI-System, das Texte verarbeitet und erzeugt
  • herunterstufenInhalte im Feed absichtlich tiefer platzieren
    heruntergestuften
  • kontrollgruppeGruppe ohne Eingreifen zum Vergleich
  • feedListe neuer Beiträge auf einer Plattform
  • soziologischdie Gesellschaft und ihre sozialen Strukturen betreffend
    soziologische

Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.

Diskussionsfragen

  • Welche Vorteile und Risiken sehen Sie, wenn Plattformen problematische Inhalte durch Positionsänderung statt durch Löschung regulieren?
  • Welche Folgen könnte die Veröffentlichung des Codes für die Forschung und die Öffentlichkeit haben?
  • Der gemessene Effekt war eine Verbesserung um durchschnittlich zwei Punkte auf einer Skala von 1 bis 100. Halten Sie das für bedeutsam? Warum (oder warum nicht)?

Verwandte Artikel

Warum KI voreingenommen ist — Level B2
6. Dez. 2025

Warum KI voreingenommen ist

Forscher der University of Texas at Austin untersuchten problematische Algorithmen und fanden drei Hauptursachen für KI-Bias: fehlende klare Entscheidungsgrundlagen, vereinfachte Modelle der Realität und fehlende Vielfalt bei den Entwicklern. Mehr als bessere Genauigkeit ist nötig.