AI e controlli alle frontiere negli Stati UnitiCEFR B2
25 apr 2026
Adattato da UntoldMag, Global Voices • CC BY 3.0
Foto di Mathias Reding, Unsplash
L'impiego dell'intelligenza artificiale nell'applicazione delle norme alle frontiere e nel controllo dell'immigrazione negli Stati Uniti è oggetto di critiche per il suo effetto sulla discriminazione razziale. Un articolo ripubblicato su Global Voices fa riferimento a un rapporto del 2023 presentato dalla Black Alliance for Just Immigration e dalla Immigrant Rights Clinic della UC Irvine al Relatore Speciale dell'ONU. Il rapporto sostiene che molte pratiche basate sull'AI possono violare la International Convention on the Elimination of All Forms of Racial Discrimination, ratificata dagli Stati Uniti nel 1994.
Tecnologie di sorveglianza come torri autonome (incluso il caso delle Anduril Towers) e i Small Unmanned Aircraft Systems tracciano le persone prima che raggiungano il confine terrestre. Il rapporto nota che l'aumento delle "smart border" è coinciso con un picco di decessi di migranti e con la rappresentazione degli sfollati come minacce. Sistemi e applicazioni usati per ingressi e controlli interni presentano problemi: ad esempio CBP One riconosceva i toni di pelle più scuri da 10 a 100 volte più spesso rispetto ai volti bianchi e mancava di traduzioni chiave; l'Automated Targeting System ha segnalato i cittadini nigeriani in modo sproporzionato dopo le restrizioni del 2020.
Agenti federali impiegano strumenti predittivi come il cosiddetto "Hurricane Score" fornito da B.I. Incorporated e la piattaforma RAVEn, che usa dati provenienti da uffici in 56 paesi. USCIS utilizza Asylum Text Analytics e un Evidence Classifier per esaminare domande e documenti, con svantaggi per chi non parla inglese o ha documenti atipici. Molti di questi sistemi mancano di trasparenza e non prevedono opzioni di opt-out per i migranti.
- Richiesta di un approccio decoloniale all'AI e partecipazione dell'Africa e della diaspora.
- Notifiche tempestive e possibilità di rinuncia (opt-out) all'uso dei dati.
- Divieti federali per usi razzialmente discriminatori e vigilanza indipendente.
- Divulgazione pubblica, consultazione degli stakeholder e rimedi per i danni.
I gruppi sostengono che l'AI non dovrebbe essere usata su alcuna frontiera fino a quando i sistemi non saranno privi di discriminazioni e non includeranno prospettive diverse.
Parole difficili
- discriminazione — trattamento ingiusto basato su caratteristiche personalidiscriminazione razziale
- sorveglianza — osservazione e controllo continuo delle persone
- trasparenza — chiarezza sulle pratiche e sulle decisioni
- predittivo — che prevede eventi o comportamenti futuripredittivi
- rinuncia — azione di scegliere di non partecipare
- decoloniale — che critica le eredità e le pratiche coloniali
- divulgazione — comunicazione pubblica di informazioni importantiDivulgazione pubblica
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Quali rischi concreti menziona il rapporto riguardo all'uso dell'AI nel controllo delle frontiere?
- In che modo un approccio decoloniale potrebbe cambiare la progettazione e l'uso dei sistemi di sorveglianza?
- Quali tra le misure proposte ti sembrano più efficaci per ridurre la discriminazione e perché?