LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
AI bij de grens in de Verenigde Staten — Niveau B2 — a group of people in a large room with a large screen

AI bij de grens in de Verenigde StatenCEFR B2

25 apr 2026

Niveau B2 – Hoger-midden
6 min
334 woorden

Kunstmatige intelligentie wordt in de Verenigde Staten op verschillende manieren ingezet bij grensbewaking en immigratiecontrole. Het oorspronkelijke verhaal verscheen op 25 november 2025 en werd in april 2026 herplaatst; in 2023 dienden BAJI en de Immigrant Rights Clinic en International Justice Clinic van de UC Irvine School of Law een rapport in bij de speciale rapporteur van de Verenigde Naties over racisme. Het rapport stelt dat Amerikaans grensbeleid dat AI gebruikt in strijd is met verplichtingen uit het Internationaal verdrag inzake de uitbanning van alle vormen van rassendiscriminatie (ICERD), dat de Verenigde Staten in 1994 hebben geratificeerd.

Surveillancetechnologieën zoals autonome torens, Anduril Towers en Small Unmanned Aircraft Systems volgen mensen voordat ze de grens bereiken. Het rapport merkt op dat de toegenomen inzet van dergelijke ‘slimme grens’-technologieën samenvalt met historisch hoge aantallen doden onder migranten en dat ontheemden steeds vaker als veiligheidsdreiging worden gemarkeerd.

Ook binnen de VS beïnvloeden AI-systemen toegang en handhaving. De CBP One-app vroeg om selfies maar herkende donkere huidtinten veel minder goed en miste belangrijke taalvertalingen. Het Automated Targeting System gebruikt databanken om visa-overstayers te voorspellen; toen Nigeria in 2020 aanscherpte reisbeperkingen kreeg, werden Nigerianen onevenredig vaak als hoog risico aangemerkt. ICE gebruikt voorspellende tools zoals de "Hurricane Score" geleverd door B.I. Incorporated en het RAVEn-platform, dat data uit kantoren in tientallen landen benut. USCIS zet Asylum Text Analytics en een Evidence Classifier in, wat niet-Engelssprekenden en mensen met atypische dossiers kan benadelen.

BAJI en UCI pleiten voor een dekoloniale benadering van AI en vragen expliciet deelname van Afrikaanse en diaspora-groepen bij ontwerp en gebruik. Hun aanbevelingen omvatten snelle kennisgeving en opt-outmogelijkheden, federale verboden op raciaal discriminerend AI-gebruik, onafhankelijk toezicht, openbare bekendmaking, raadpleging van belanghebbenden en remedies voor schade. Totdat systemen vrij zijn van discriminatie en diverse perspectieven bevatten, vinden zij dat AI niet bij enige grens gebruikt mag worden.

  • dekoloniale aanpak en Cosmo uBuntu
  • deelname van Afrikaanse en diaspora-groepen
  • opt-out, onafhankelijk toezicht en openheid
  • federale verboden en rechtsmiddelen

Moeilijke woorden

  • surveillancetechnologietechnologieën om mensen of gebieden te volgen
    Surveillancetechnologieën
  • ratificerenofficieel akkoord geven en een verdrag goedkeuren
    geratificeerd
  • ontheemdeiemand die vanwege gevaar of conflict is verplaatst
    ontheemden
  • rassendiscriminatieongelijke behandeling vanwege iemands huidskleur of afkomst
  • onevenredigongelijk in verhouding, sterker dan verwacht of passend
  • voorspellenop basis van data een toekomstige gebeurtenis aangeven
    voorspellende
  • dekoloniaalgericht op herstellen van ongelijkheid door koloniale geschiedenis
    dekoloniale

Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.

Discussievragen

  • Waarom vragen BAJI en UCI expliciet deelname van Afrikaanse en diaspora-groepen bij het ontwerpen en gebruiken van AI?
  • Welke gevolgen kan het volgens het artikel hebben als voorspellende systemen mensen uit bepaalde landen vaker als hoog risico markeren?
  • Welke aanbeveling uit het rapport vind je het belangrijkst en waarom?

Gerelateerde artikelen