Künstliche Intelligenz an US-Grenzen und RisikenCEFR B1
25. Apr. 2026
Adaptiert nach UntoldMag, Global Voices • CC BY 3.0
Foto von Mathias Reding, Unsplash
Künstliche Intelligenz wird zunehmend bei US-Grenzkontrollen und in der Einwanderungsdurchsetzung genutzt. Im Jahr 2023 reichten die Black Alliance for Just Immigration (BAJI) sowie Kliniken und Rechtszentren der UC Irvine einen Bericht beim UN-Sonderberichterstatter für Rassismus ein. Der Bericht stellt dar, dass die Praxis rassistische Diskriminierung reproduzieren kann und sich gegen internationale Verpflichtungen richtet.
Überwachungstechnologien wie autonome Türme, Anduril Towers und unbemannte Fluggeräte (Drohnen) verfolgen Menschen, bevor sie eine Grenze erreichen. Behörden sagen, diese Technik diene der Abschreckung und Hilfe. Der Bericht dagegen verbindet den Ausbau der „smarten Grenze“ mit historisch hohen Todesraten und der Stigmatisierung Vertriebener.
Weitere Probleme betreffen digitale Werkzeuge: Die CBP One-App erkannte dunklere Haut seltener und hatte wenige Sprachübersetzungen. Das Automated Targeting System (ATS) nutzt Daten, um Visaüberziehungen vorherzusagen und markierte Menschen aus bestimmten Ländern häufiger als Risiko. Innerhalb der USA setzt ICE prädiktive Werkzeuge ein; USCIS verwendet Asylum Text Analytics und einen Evidence Classifier, die Nicht-Englischsprechende und Personen mit untypischen Unterlagen benachteiligen können.
BAJI und UCI fordern einen dekolonialen Ansatz für KI, Beteiligung afrikanischer und diasporarepräsentativer Akteurinnen und Akteure sowie Maßnahmen wie sofortige Benachrichtigung, Opt-out-Möglichkeiten, unabhängige Aufsicht und Transparenz.
Schwierige Wörter
- diskriminierung — Ungleiche Behandlung von Personen wegen Herkunft
- überwachungstechnologie — Gerät oder System zur Beobachtung von MenschenÜberwachungstechnologien
- drohne — Unbemanntes Fluggerät, das ferngesteuert fliegtDrohnen
- abschreckung — Maßnahme, um Menschen von etwas abzuhalten
- stigmatisierung — Negative Kennzeichnung und Ausgrenzung von Gruppen
- prädiktiv — Vorhersagend; zur Prognose von Ereignissen genutztprädiktive
- transparenz — Offenheit über Entscheidungen und genutzte Daten
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Wie stehen Sie zum Einsatz von Überwachungstechnologien an Grenzen? Welche Vorteile und Nachteile sehen Sie?
- Welche konkreten Folgen kann haben, wenn digitale Werkzeuge Menschen mit dunklerer Haut oder Nicht-Englischsprechende benachteiligen?
- Wie könnten Opt-out-Möglichkeiten, unabhängige Aufsicht oder Transparenz das Vertrauen der betroffenen Menschen verbessern?
Verwandte Artikel
KI in Lateinamerika gegen geschlechtsspezifische Gewalt
Gruppen in Lateinamerika entwickeln offene, lokale KI‑Systeme, um geschlechtsspezifische Ungleichheiten und Gewalt zu untersuchen. Sie schützen sensible Daten, liefern Belege für Zivilgesellschaft und Staat und arbeiten an neuen Funktionen wie Audio‑Transkription.
Xonorika Kira: Menschzentrierte KI kann Ausschluss verstärken
Die Künstlerin Xonorika Kira warnt, dass der Ausdruck „den Menschen in den Mittelpunkt“ eine enge Vorstellung von Menschlichkeit verbergen kann und so viele Formen von Intelligenz ausschließt. Sie schlägt Alternativen für Daten, Modelle und Gemeinschaften vor.