Künstliche-Intelligenz-Werkzeuge verbreiten sich rasch und erreichen viele Menschen; im Artikel wird etwa erwähnt, dass Im April erreichte ChatGPT von OpenAI a billion aktive wöchentliche Nutzer. Gleichzeitig dokumentieren Forschende und Journalistinnen Schäden durch voreingenommene KI. Neue Forschung der University of Texas at Austin geht der Frage nach, warum Bias in Algorithmen entsteht.
Hüseyin Tanriverdi arbeitete zusammen mit John-Patrick Akinyemi und untersuchte eine Auswahl von 363 Algorithmen, die zuvor als voreingenommen identifiziert worden waren. Die Algorithmen stammten aus einem Repository mit dem Namen AI Algorithmic and Automation Incidents and Controversies. Für jeden problematischen Algorithmus suchten die Forschenden einen ähnlichen Algorithmus ohne Kritik. Sie analysierten sowohl technische Aspekte als auch die Organisationen, die die Systeme entwickelten und einsetzten.
Die Studie nennt drei miteinander verbundene Faktoren: fehlende klare Entscheidungsgrundlagen (ground truth), die Vereinfachung der realen Komplexität durch Modelle und unzureichende Einbeziehung verschiedener beteiligter Gruppen. Beispiele machen die Probleme deutlich: die Altersbestimmung eines Knochens auf Röntgenbildern ohne etablierte Methode, die Einordnung von Beiträgen in sozialen Medien als objektive Fakten und ein Fall in Arkansas, wo automatisierte Entscheidungen Hausbesuche ersetzten und Menschen mit Behinderung Hilfe verloren.
- Fehlende ground truth: erhöht das Risiko für subjektive Entscheidungen.
- Reale Komplexität: wichtige Variablen fehlen oft in den Daten.
- Beteiligte: Entwicklung durch zu homogene Gruppen schafft blinde Flecken.
Die Forschung kommt zu dem Schluss, dass zur Verringerung von KI-Bias mehr nötig ist als eine reine Verbesserung der Genauigkeit. Entwickler sollten "Black Boxes" öffnen, reale Komplexität und vielfältige Eingaben berücksichtigen und klare Entscheidungsgrundlagen schaffen. Die Studie erscheint in MIS Quarterly. Quelle: UT Austin.
Schwierige Wörter
- entscheidungsgrundlage — klare Kriterien oder Daten für eine EntscheidungEntscheidungsgrundlagen
- voreingenommen — nicht neutral; hat systematische Vorurteilevoreingenommene
- vereinfachung — Reduktion von Details in einem Modell
- komplexität — Anzahl und Vielfalt von zusammenhängenden Teilen
- repository — Ort im Internet mit gespeicherten Daten
- einbeziehung — Beteiligung unterschiedlicher Personen oder Gruppen
- blinder fleck — etwas Wichtiges, das übersehen oder ignoriert wirdblinde Flecken
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Folgen nennt der Artikel, wenn automatisierte Entscheidungen ohne klare Grundlagen eingesetzt werden?
- Wie könnte die Einbeziehung verschiedener Gruppen die Entwicklung von Algorithmen verbessern?
- Welche Schwierigkeiten entstehen laut Studie, wenn Modelle die reale Komplexität vereinfachen?
Verwandte Artikel
Neue Ultraschallmethode unterscheidet flüssige und feste Brustmassen
Forscher berichten über ein kohärenzbasiertes Signalverarbeitungsverfahren für Ultraschall, das Flüssigkeiten von festen Massen deutlich besser trennt. In Tests erkannten Ärztinnen Massen zu 96% korrekt statt 67% mit herkömmlichen Geräten.
Wissenschaftsjournalismus in der Pandemie
Ein globaler Bericht untersucht, wie die COVID-19-Pandemie die Arbeit von Wissenschaftsjournalistinnen und -journalisten veränderte. Befragt wurden Journalistinnen und Journalisten aus vielen Ländern; die Arbeit wurde intensiver und Preprints wurden häufiger genutzt.
Elektroautobatterien versorgen Haushalte und sparen Geld
Neue Forschung der University of Michigan zeigt: Batterie-Laden vom Fahrzeug ins Haus (V2H) kann Eigentümern Tausende Dollar sparen und die Emissionen des Stromnetzes deutlich senken. Die Wirkung variiert je nach Region und Netzbedingungen.