KI-Werkzeuge sind weit verbreitet, doch Forschende dokumentieren Schäden durch voreingenommene Systeme. Neue Forschung der University of Texas at Austin untersucht die Ursachen für solchen Bias. Hüseyin Tanriverdi und John-Patrick Akinyemi betrachteten eine Auswahl von problematischen Algorithmen und verglichen jeden mit einem ähnlichen, nicht kritisierten Algorithmus. Dabei analysierten sie sowohl die Modelle als auch die Organisationen, die sie einsetzten.
Die Studie identifiziert drei miteinander verbundene Faktoren. Erstens fehlt in manchen Fällen eine klare Entscheidungsgrundlage, etwa wenn Ärzte keine etablierte Methode zur Altersbestimmung eines Knochens haben oder wenn Meinungen in sozialen Medien als Fakten behandelt werden. Zweitens vereinfachen Modelle die Realität und lassen wichtige Variablen weg; ein Beispiel ist, dass automatisierte Entscheidungen Hausbesuche ersetzten und damit Menschen mit Behinderung Hilfe entzogen wurde. Drittens führt die Entwicklung überwiegend durch eine demografische Gruppe zu blinden Flecken; die Einbeziehung verschiedener Beteiligter hilft, Kompromisse zu finden.
Die Forschenden folgern, dass zur Verringerung von Bias mehr nötig ist als höhere Genauigkeit. Modelle sollten reale Komplexität, vielfältige Eingaben und klare Entscheidungsgrundlagen besser berücksichtigen.
Schwierige Wörter
- voreingenommen — mit einem unfairen oder nicht neutralen Urteilvoreingenommene
- Entscheidungsgrundlage — Grund für eine bestimmte Entscheidung
- vereinfachen — etwas einfacher machen als es ist
- Variable — ein Faktor oder eine Messgröße in DatenVariablen
- blinder Fleck — etwas, das übersehen oder nicht beachtet wirdblinden Flecken
- Einbeziehung — das Mitnehmen verschiedener Personen in einen Prozess
- Verringerung — das Wenigerwerden oder die Reduktion von etwas
- Genauigkeit — wie genau oder korrekt etwas ist
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Folgen kann es haben, wenn Modelle Hausbesuche ersetzen?
- Wie könnte die Einbeziehung verschiedener Beteiligter helfen, blinde Flecken zu vermeiden?
- Gibt es in Ihrem Alltag Entscheidungen ohne klare Entscheidungsgrundlage? Wenn ja, welche?
Verwandte Artikel
Afrikanische Schweinepest auf den Philippinen: Tests und Impfstoff
Die Afrikanische Schweinepest bedroht Schweinehaltung und Ernährungssicherheit auf den Philippinen. Regierung und Partner stellen neue Diagnose‑Werkzeuge vor, doch über einen aus Vietnam importierten Impfstoff gibt es Streit und Sicherheitsbedenken.
Studie: KI ändert Ratschläge, wenn Autismus genannt wird
Eine Studie der Virginia Tech zeigt, dass große Sprachmodelle ihre Empfehlungen ändern, wenn Nutzende Autismus offenlegen. Häufig folgen die Antworten gängigen Stereotypen; Forschende fordern transparentere Systeme und mehr Nutzerkontrolle.
KI in Lateinamerika gegen geschlechtsspezifische Gewalt
Gruppen in Lateinamerika entwickeln offene, lokale KI‑Systeme, um geschlechtsspezifische Ungleichheiten und Gewalt zu untersuchen. Sie schützen sensible Daten, liefern Belege für Zivilgesellschaft und Staat und arbeiten an neuen Funktionen wie Audio‑Transkription.