Xonorika Kira: Menschzentrierte KI kann Ausschluss verstärkenCEFR B1
16. Apr. 2026
Adaptiert nach Guest Contributor, Global Voices • CC BY 3.0
Foto von Steve A Johnson, Unsplash
Xonorika Kira kritisiert die Idee, die Entwicklung von künstlicher Intelligenz an einem engen Bild vom "Menschen" auszurichten. Sie erklärt, dass diese Vorstellung auf einer langen Geschichte beruht, in der tierische, ökologische, ancestrale und spirituelle Wissensformen abgewertet wurden. Solche Muster seien oft von weißem Suprematismus, Patriarchat und anderen diskriminierenden Strukturen geprägt worden.
Kira beschreibt eine Krise des Realen: KI-Bilder und -Stimmen konkurrieren mit der gelebten Wirklichkeit, sodass es zu einem Überangebot an Bildern und zu einem Mangel an Verifikation kommt. Daten und Inhalte seien Ergebnis von Arbeit, Extraktion und Energieverbrauch; die Modelle laufen auf Servern, die Strom, Wasser und Mineralien verbrauchen.
Als Alternativen nennt sie situierte Datensätze — kleinere, gezielte Archive mit Einwilligung und Rechenschaft — sowie kleinere, langsamere Modelle für Gemeinschaften. Arbeit mit KI solle Systeme als instabile Kollaborateurinnen behandeln und Souveränität für Kulturen fördern, deren Wissen extrahiert wurde.
Schwierige Wörter
- abwerten — als weniger wichtig oder schlechter darstellenabgewertet
- suprematismus — Ideologie, die andere Menschen als minderwertig sieht
- verifikation — Prüfung, ob Informationen wirklich oder richtig sind
- extraktion — Entnahme oder Gewinnung von Daten oder Rohstoffen
- situierte datensätze — kleine Datensammlungen mit lokalem Kontext und Einwilligung
- souveränität — Fähigkeit einer Gruppe, selbst Entscheidungen zu treffen
- kollaborateurin — Person, die mit anderen zusammenarbeitetKollaborateurinnen
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Wie könnte ein kleines, gezieltes Archiv (situierter Datensatz) in Ihrer Gemeinde aussehen?
- Auf welche Weise könnten kleinere, langsamere Modelle die Souveränität einer Kultur stärken?
- Was könnte man praktisch tun, um die Verifikation von Online-Bildern und -Stimmen zu verbessern?
Verwandte Artikel
Werkzeug verringert parteiische Verbitterung im X‑Feed
Forscher entwickelten eine Browser‑Erweiterung mit einem großen Sprachmodell, die antidemokratische Beiträge im X‑Feed herunterstuft, ohne Posts zu löschen. Ein Experiment während der Wahl 2024 zeigte eine kleine, aber messbare Verbesserung der Einstellungen.
Studie: KI ändert Ratschläge, wenn Autismus genannt wird
Eine Studie der Virginia Tech zeigt, dass große Sprachmodelle ihre Empfehlungen ändern, wenn Nutzende Autismus offenlegen. Häufig folgen die Antworten gängigen Stereotypen; Forschende fordern transparentere Systeme und mehr Nutzerkontrolle.
Huck-Video im Parque Indígena do Xingu sorgt für Kritik
Im August drehte Luciano Huck in Parque Indígena do Xingu. Monate später wurde ein Hinter-den-Kulissen-Video mit Anitta auf Instagram viral. Indigene Organisationen kritisierten Hucks Äußerungen und verteidigten den Zugang zu Technik; Huck sagte, er sei missverstanden worden.