Künstliche Intelligenz an US-Grenzen und RisikenCEFR A2
25. Apr. 2026
Adaptiert nach UntoldMag, Global Voices • CC BY 3.0
Foto von Mathias Reding, Unsplash
In den USA wird Künstliche Intelligenz (KI) immer häufiger bei Grenzkontrollen und in der Einwanderung eingesetzt. Menschenrechtsgruppen reichten 2023 einen Bericht beim UN-Sonderberichterstatter für Rassismus ein und warnen, dass diese Technik Diskriminierung verstärken kann.
Überwachungstürme und Drohnen verfolgen Menschen vor der Grenze. Die CBP One-App verlangte Selfies zur Identitätsprüfung, erkannte aber dunklere Haut seltener und bot nur wenige Übersetzungen. Andere Systeme markieren Personen als Risiko und benachteiligen so manche Menschen.
Die Gruppen fordern, dass Betroffene informiert werden und sich abmelden können. Sie sagen auch: Keine KI an Grenzen, bis die Systeme fair sind und verschiedene Perspektiven einbeziehen.
Schwierige Wörter
- künstliche Intelligenz — Computerprogramme, die wie Menschen denken sollenKünstliche Intelligenz (KI)
- Diskriminierung — Ungleiche oder ungerechte Behandlung von Menschen
- Überwachungsturm — Hoher Turm mit Kameras zur BeobachtungÜberwachungstürme
- Drohne — Fluggerät ohne Pilot, oft mit KameraDrohnen
- Selfie — Foto einer Person, meist mit dem HandySelfies
- benachteiligen — Jemanden schlechter behandeln oder weniger Chancen geben
- abmelden — Sich von einem Dienst oder System abtrennen
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Möchtest du informiert werden, wenn KI deine Daten an der Grenze nutzt? Warum?
- Hast du schon einmal ein Selfie zur Identitätsprüfung gemacht? Erzähle kurz.
- Was sollten Behörden tun, bevor sie KI an Grenzen einsetzen?
Verwandte Artikel
Ankunftszeit von Fahrzeugen bei Sehverlust
Eine Studie verglich Menschen mit altersbedingter Makuladegeneration (AMD) mit Menschen mit normalem Sehvermögen. In einem Virtual‑Reality‑Versuch mit realistischen Autogeräuschen waren die Ergebnisse ähnlich; Sehen und Hören zusammen verbesserten die Genauigkeit nicht.
Warum KI voreingenommen ist
Forscher der University of Texas at Austin untersuchten problematische Algorithmen und fanden drei Hauptursachen für KI-Bias: fehlende klare Entscheidungsgrundlagen, vereinfachte Modelle der Realität und fehlende Vielfalt bei den Entwicklern. Mehr als bessere Genauigkeit ist nötig.
Virtual Vet: Lernspiel für Grundschulkinder
Forscher der University of Georgia entwickelten das Spiel Virtual Vet, mit dem Grundschulkinder Anatomie, Gesundheit und Schlussfolgern üben. In Tests schnitten Kinder, die spielten, im Durchschnitt besser ab als solche mit traditionellem Unterricht.
Höhere Entzündungswerte und mehr Nutzung sozialer Medien
Eine Studie der University at Buffalo zeigt, dass höhere Entzündungswerte (gemessen mit CRP) mit einer Präferenz für soziale Medien statt persönlicher Treffen verbunden sind. Forschende nutzten Bluttests, Fragebögen und eine Woche Screen-Time.
Moon: Lehrerin aus dem Karen-Staat im Exil
Moon ist Lehrerin aus dem Karen-Staat. Nach dem Militärputsch 2021 protestierte sie, floh ins Exil und arbeitete weiter als Lehrerin. Exile Hub unterstützte vertriebene Journalistinnen und Menschenrechtsverteidiger und förderte ihre Medienarbeit.