Warum KI nicht neutral istCEFR B2
21. Apr. 2026
Adaptiert nach Guest Contributor, Global Voices • CC BY 3.0
Foto von Marija Zaric, Unsplash
Der Beitrag ist Teil der Reihe „Don’t ask AI, ask a peer“, einer Zusammenarbeit von Global Voices, der Association for Progressive Communication und GenderIT, und gehört zur Spotlight‑Serie im April 2026 „Human perspectives on AI“. Hija Kamran beschreibt ihre eigene Vorsicht gegenüber neuen Technologien und nennt sich oft eine späte Anwenderin.
Kamran argumentiert, dass Technologiefirmen wiederholt zeigen, ihre vorrangige Verpflichtung gelte den Geschäftsmodellen und nicht den Menschen. Als Beispiele nennt sie die bekannte Bemerkung, die Mark Zuckerberg zugeschrieben wird: „Senator, wir schalten Werbung“, und die Antwort eines Firmenvertreters, die Menschen sollten die Nutzungsbedingungen lesen. Solche Reaktionen offenbaren für sie mangelnde Transparenz und fehlende Rechenschaft.
Der Text erklärt, warum Technologie nicht neutral ist: Systeme entstehen durch bestimmte Akteurinnen und Akteure mit bestimmten Weltanschauungen, und Trainingsdaten aus Internet sowie öffentlichen Aufzeichnungen spiegeln Geschichten von Ausgrenzung, Rassismus, Sexismus und wirtschaftlicher Ungleichheit. Unternehmensanreize — Gewinnmotive, Aktionärsinteressen und Wachstumsziele — beeinflussen, welche Probleme priorisiert werden, wie schnell Produkte eingeführt werden und wessen Land, Wissen oder Leben betroffen sind. Der Artikel verwendet den Begriff „Kollateralschäden“, um Menschen zu beschreiben, die im Wettlauf um KI geschädigt werden.
Kamran hebt außerdem das Risiko der Entmenschlichung hervor: In militarisierten Kontexten können Menschen auf Datenpunkte reduziert und als Ziele behandelt werden. KI versteht keinen Kontext, keine Geschichte und keine Verantwortung; sie liefert Ergebnisse als Wahrscheinlichkeiten. Deshalb fordert sie einen menschenrechtsbasierten Ansatz, der Rechenschaft zu den Mächtigen verlagert, und ruft zu Skepsis in frühen Entwicklungs‑ und Kommerzialisierungsphasen auf. Sie empfiehlt zu fragen:
- Wer hat ein System gebaut?
- Wie funktioniert es?
- Wer profitiert davon?
Schwierige Wörter
- verpflichtung — Pflicht oder Verantwortung gegenüber einer Aufgabe oder Partei
- geschäftsmodell — Art, wie ein Unternehmen Geld verdientGeschäftsmodellen
- rechenschaft — Erklärung oder Verantwortung gegenüber anderen für Handlungen
- transparenz — Offenheit über Prozesse, Entscheidungen und Informationen
- trainingsdaten — Daten, mit denen ein System gelernt oder trainiert wird
- entmenschlichung — Behandlung von Menschen ohne Achtung ihrer Würde
- kollateralschäden — Unbeabsichtigte Schäden für Menschen durch Maßnahmen
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Wie könnte ein menschenrechtsbasierter Ansatz in der Entwicklung und Kommerzialisierung von KI konkret umgesetzt werden? Nennen Sie Beispiele.
- Welche Folgen können Kollateralschäden für einzelne Menschen oder Gemeinschaften haben? Geben Sie mögliche Beispiele oder Auswirkungen.
- Welche Maßnahmen könnten Transparenz und Rechenschaftspflicht bei Technologiefirmen verbessern? Diskutieren Sie Vor- und Nachteile.
Verwandte Artikel
KI und Bürgerfotos finden Malariamücke auf Madagaskar
Forscher nutzten Künstliche Intelligenz und von Bürgern eingesandte Smartphone‑Fotos, um wahrscheinlich das erste nachgewiesene Vorkommen von Anopheles stephensi auf Madagaskar zu identifizieren. Die WHO warnt vor einem erhöhten Risiko für die Malariakontrolle in Afrika.
NeuroBridge: KI hilft, autistische Kommunikation zu verstehen
Forscher der Tufts University entwickelten NeuroBridge, ein KI-Werkzeug, das nicht-autistischen Menschen helfen soll, die Kommunikation autistischer Menschen besser zu verstehen. Das Tool zeigt Gesprächsszenarien mit drei Antwortoptionen und erhielt in Tests positives Feedback.