Künstliche-Intelligenz-Werkzeuge verbreiten sich rasch und erreichen viele Menschen; im Artikel wird etwa erwähnt, dass Im April erreichte ChatGPT von OpenAI a billion aktive wöchentliche Nutzer. Gleichzeitig dokumentieren Forschende und Journalistinnen Schäden durch voreingenommene KI. Neue Forschung der University of Texas at Austin geht der Frage nach, warum Bias in Algorithmen entsteht.
Hüseyin Tanriverdi arbeitete zusammen mit John-Patrick Akinyemi und untersuchte eine Auswahl von 363 Algorithmen, die zuvor als voreingenommen identifiziert worden waren. Die Algorithmen stammten aus einem Repository mit dem Namen AI Algorithmic and Automation Incidents and Controversies. Für jeden problematischen Algorithmus suchten die Forschenden einen ähnlichen Algorithmus ohne Kritik. Sie analysierten sowohl technische Aspekte als auch die Organisationen, die die Systeme entwickelten und einsetzten.
Die Studie nennt drei miteinander verbundene Faktoren: fehlende klare Entscheidungsgrundlagen (ground truth), die Vereinfachung der realen Komplexität durch Modelle und unzureichende Einbeziehung verschiedener beteiligter Gruppen. Beispiele machen die Probleme deutlich: die Altersbestimmung eines Knochens auf Röntgenbildern ohne etablierte Methode, die Einordnung von Beiträgen in sozialen Medien als objektive Fakten und ein Fall in Arkansas, wo automatisierte Entscheidungen Hausbesuche ersetzten und Menschen mit Behinderung Hilfe verloren.
- Fehlende ground truth: erhöht das Risiko für subjektive Entscheidungen.
- Reale Komplexität: wichtige Variablen fehlen oft in den Daten.
- Beteiligte: Entwicklung durch zu homogene Gruppen schafft blinde Flecken.
Die Forschung kommt zu dem Schluss, dass zur Verringerung von KI-Bias mehr nötig ist als eine reine Verbesserung der Genauigkeit. Entwickler sollten "Black Boxes" öffnen, reale Komplexität und vielfältige Eingaben berücksichtigen und klare Entscheidungsgrundlagen schaffen. Die Studie erscheint in MIS Quarterly. Quelle: UT Austin.
Schwierige Wörter
- entscheidungsgrundlage — klare Kriterien oder Daten für eine EntscheidungEntscheidungsgrundlagen
- voreingenommen — nicht neutral; hat systematische Vorurteilevoreingenommene
- vereinfachung — Reduktion von Details in einem Modell
- komplexität — Anzahl und Vielfalt von zusammenhängenden Teilen
- repository — Ort im Internet mit gespeicherten Daten
- einbeziehung — Beteiligung unterschiedlicher Personen oder Gruppen
- blinder fleck — etwas Wichtiges, das übersehen oder ignoriert wirdblinde Flecken
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Folgen nennt der Artikel, wenn automatisierte Entscheidungen ohne klare Grundlagen eingesetzt werden?
- Wie könnte die Einbeziehung verschiedener Gruppen die Entwicklung von Algorithmen verbessern?
- Welche Schwierigkeiten entstehen laut Studie, wenn Modelle die reale Komplexität vereinfachen?
Verwandte Artikel
NeuroBridge: KI hilft, autistische Kommunikation zu verstehen
Forscher der Tufts University entwickelten NeuroBridge, ein KI-Werkzeug, das nicht-autistischen Menschen helfen soll, die Kommunikation autistischer Menschen besser zu verstehen. Das Tool zeigt Gesprächsszenarien mit drei Antwortoptionen und erhielt in Tests positives Feedback.
Ägyptische Systeme halten Solarmodule vom Wüstensand frei
Forscher aus Kairo entwickelten zwei Lösungen, um Sand von Solarmodulen zu entfernen: ein vibrationsbasiertes System und eine windgetriebene Halterung. Feldversuche zeigen deutlich geringere Leistungsverluste bei den neuen Aufbauten.
Punktevergabe im Kendo und die Debatte um Urteil und Technik
Die Punktevergabe im Kendo hängt vom Urteil der Schiedsrichter ab. Gültige Treffer müssen ki-ken-tai no icchi erfüllen. Beschwerden über inkonsistente Entscheidungen führen zu Diskussionen über Video, Sensoren und Reformen.
Nanofaser-Luftfilter fängt CO2 in Gebäuden
Forschende entwickelten einen wiederverwendbaren Nanofaser-Luftfilter, der CO2 in Innenräumen bindet und so Energie spart. Analysen zeigen hohe CO2-Effizienz; die Filter können zentral gesammelt, regeneriert und für Speicherung oder Umwandlung genutzt werden.
VillainNet: Sicherheitslücke bei selbstfahrenden Autos
Forscher entdeckten die Hintertür VillainNet, die Supernetzwerke in autonomen Fahrsystemen ausnutzen kann. Aktiviert könnte sie Angreifern erlauben, Fahrzeuge zu übernehmen; die Studie stammt von Georgia Tech und wurde im Oktober 2025 vorgestellt.