Künstliche Intelligenz an US-Grenzen und RisikenCEFR B2
25. Apr. 2026
Adaptiert nach UntoldMag, Global Voices • CC BY 3.0
Foto von Mathias Reding, Unsplash
Der Text erschien erstmals am 25. November 2025 bei UntoldMag und wurde im Rahmen einer April-2026-Serie über KI bei Global Voices nachgedruckt. Er dokumentiert, wie Künstliche Intelligenz in den USA bei Grenzkontrollen und in der Einwanderungsdurchsetzung eingesetzt wird und wie Menschenrechtsgruppen vor der Reproduktion rassistischer Diskriminierung warnen.
Im Jahr 2023 reichten die Black Alliance for Just Immigration (BAJI) gemeinsam mit der Immigrant Rights Clinic und der International Justice Clinic der UC Irvine (UCI) School of Law einen Bericht beim UN-Sonderberichterstatter für Rassismus ein. Der Bericht argumentiert, dass die US-Grenzpolitik mit KI gegen Verpflichtungen aus der Internationalen Konvention zur Beseitigung jeder Form von Rassendiskriminierung (ICERD), die die Vereinigten Staaten 1994 ratifizierten, verstößt.
Zur Technik zählen autonome Türme, Anduril Towers und Small Unmanned Aircraft Systems (sUAS), die Menschen verfolgen, bevor sie eine Landgrenze erreichen. Behörden behaupten, solche Systeme würden Übertritte abschrecken und gefährdete Menschen schützen. Der Bericht verbindet den Einsatz „smarter Grenz“-Technologie jedoch mit historisch hohen Todesraten unter Migrantinnen und Migranten und kritisiert die Stigmatisierung Vertriebener.
Weitere eingesetzte Systeme betreffen Identitätsprüfungen und Risikoabschätzungen: Die CBP One-App verlangte Selfies, erkannte dunklere Haut aber deutlich seltener und fehlte es an wichtigen Sprachübersetzungen. Das Automated Targeting System (ATS) analysiert Daten, um Visaüberziehungen vorherzusagen; während verschärfter Reisebeschränkungen 2020 wurden Nigerianerinnen und Nigerianer unverhältnismäßig häufig als hohes Risiko markiert. Innerhalb der USA nutzt ICE prädiktive Werkzeuge wie den „Hurricane Score“ von B.I. Incorporated und die Plattform RAVEn, die Daten aus Büros in 56 Ländern verarbeitet; diese Systeme sind intransparent und erlauben kein Opt-out. US Citizenship and Immigration Services (USCIS) verwendet Asylum Text Analytics (ATA) und einen Evidence Classifier, die Nicht-Englischsprechende und Personen mit untypischen Unterlagen benachteiligen können.
BAJI und UCI empfehlen einen dekolonialen Ansatz für KI, verweisen auf Cosmo uBuntu und verlangen die Beteiligung afrikanischer und diasporarepräsentativer Akteurinnen und Akteure bei Design und Betrieb. Zu ihren Forderungen zählen sofortige Benachrichtigung und Opt-out-Möglichkeiten, bundesweite Verbote rassistisch diskriminierender KI-Anwendungen, unabhängige Aufsicht, öffentliche Offenlegung, Konsultationen mit Betroffenen, Wiedergutmachungen für Schäden sowie kommunale Zusagen, keine Daten für die DHS-KI-Entwicklung zu teilen. Solange Systeme nicht diskriminierungsfrei sind und nicht diverse Perspektiven einbeziehen, sprechen sie sich gegen den Einsatz von KI an irgendeiner Grenze aus.
- Sofortige Benachrichtigung und Opt-out
- Unabhängige Aufsicht und öffentliche Offenlegung
- Verbote diskriminierender KI-Anwendungen
- Beteiligung afrikanischer und diasporischer Vertreterinnen und Vertreter
Schwierige Wörter
- einwanderungsdurchsetzung — Durchsetzung von Regeln zur Einreise und zum Aufenthalt
- diskriminierung — Ungleiche Behandlung wegen Herkunft, Hautfarbe oder Gruppediskriminierender
- dekolonial — Vorgehen gegen koloniale Macht und Einflüssedekolonialen
- prädiktiv — Auf zukünftige Ereignisse vorhersagend, datenbasiertprädiktive
- intransparent — Nicht offen, schwer nachprüfbar oder unklar
- risikoabschätzung — Bewertung, wie wahrscheinlich ein negatives Ereignis istRisikoabschätzungen
- wiedergutmachung — Entschädigung oder Ausgleich für verursachten SchadenWiedergutmachungen
- stigmatisierung — Negatives Bild oder Vorurteil gegenüber bestimmten Menschen
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Folgen könnte der Einsatz von KI an Grenzen für migrierende Menschen haben?
- Welche der im Text genannten Forderungen halten Sie für besonders wichtig und warum?
- Wie könnte eine sinnvolle Beteiligung afrikanischer und diasporischer Vertreterinnen und Vertreter beim Design von KI aussehen?
Verwandte Artikel
Ankunftszeit von Fahrzeugen bei Sehverlust
Eine Studie verglich Menschen mit altersbedingter Makuladegeneration (AMD) mit Menschen mit normalem Sehvermögen. In einem Virtual‑Reality‑Versuch mit realistischen Autogeräuschen waren die Ergebnisse ähnlich; Sehen und Hören zusammen verbesserten die Genauigkeit nicht.
Warum KI voreingenommen ist
Forscher der University of Texas at Austin untersuchten problematische Algorithmen und fanden drei Hauptursachen für KI-Bias: fehlende klare Entscheidungsgrundlagen, vereinfachte Modelle der Realität und fehlende Vielfalt bei den Entwicklern. Mehr als bessere Genauigkeit ist nötig.
Virtual Vet: Lernspiel für Grundschulkinder
Forscher der University of Georgia entwickelten das Spiel Virtual Vet, mit dem Grundschulkinder Anatomie, Gesundheit und Schlussfolgern üben. In Tests schnitten Kinder, die spielten, im Durchschnitt besser ab als solche mit traditionellem Unterricht.
Höhere Entzündungswerte und mehr Nutzung sozialer Medien
Eine Studie der University at Buffalo zeigt, dass höhere Entzündungswerte (gemessen mit CRP) mit einer Präferenz für soziale Medien statt persönlicher Treffen verbunden sind. Forschende nutzten Bluttests, Fragebögen und eine Woche Screen-Time.
Moon: Lehrerin aus dem Karen-Staat im Exil
Moon ist Lehrerin aus dem Karen-Staat. Nach dem Militärputsch 2021 protestierte sie, floh ins Exil und arbeitete weiter als Lehrerin. Exile Hub unterstützte vertriebene Journalistinnen und Menschenrechtsverteidiger und förderte ihre Medienarbeit.