LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
IA e controlo de fronteiras nos EUA — Nível B2 — a group of people in a large room with a large screen

IA e controlo de fronteiras nos EUACEFR B2

25/04/2026

Nível B2 – Intermediário-avançado
6 min
310 palavras

A utilização crescente de inteligência artificial no contexto das fronteiras dos Estados Unidos tem sido alvo de críticas por parte de grupos de direitos humanos. O texto original, publicado pela primeira vez em 25 de novembro de 2025 e republicado em abril de 2026, documenta relatos de que sistemas de vigilância e ferramentas de triagem podem reproduzir discriminação racial e transformar deslocados em ameaças à segurança.

O relatório de 2023, apresentado pela Black Alliance for Just Immigration e pelas clínicas da UCI ao Relator Especial da ONU sobre o racismo, afirma que políticas fronteiriças que usam IA violam obrigações da International Convention on the Elimination of All Forms of Racial Discrimination, ratificada pelos Estados Unidos em 1994. Cita tecnologias como torres autónomas (incluindo Anduril Towers), Small Unmanned Aircraft Systems (sUAS), e falhas em aplicações como o CBP One, que teve problemas para reconhecer peles mais escuras e faltar traduções essenciais.

Outros exemplos incluem o Automated Targeting System (ATS), que passou a sinalizar nigerianos de forma desproporcional durante as restrições de viagem de 2020, e ferramentas preditivas usadas pelo ICE, como um "Hurricane Score" fornecido pela B.I. Incorporated e a plataforma RAVEn, que agrega dados de escritórios em 56 países. O USCIS emprega Asylum Text Analytics (ATA) e um Evidence Classifier para triagem, o que pode prejudicar falantes não nativos de inglês e pessoas com registos atípicos.

As recomendações das organizações incluem uma abordagem descolonial à IA inspirada no Cosmo uBuntu, participação africana e da diáspora no desenho e operação das ferramentas, notificação imediata e opções de exclusão voluntária, proibições federais de usos racialmente discriminatórios, supervisão independente, divulgação pública, consultas com partes interessadas, remédios para danos e compromissos de cidades para não partilhar dados com o DHS. Enquanto os sistemas não estiverem livres de discriminação e não incluírem perspectivas diversas, defendem que a IA não deve ser usada em nenhuma fronteira.

Palavras difíceis

  • vigilânciaobservação contínua de pessoas ou lugares
  • triagemprocesso de avaliar e separar casos ou pessoas
  • discriminaçãotratamento injusto com base em características
  • descolonialque rejeita ou questiona legados coloniais
  • diásporacomunidade espalhada de origem comum em vários países
  • supervisãoverificação externa e contínua de atividades ou sistemas

Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.

Perguntas para discussão

  • Que efeitos práticos o uso de ferramentas de IA discriminatórias pode ter sobre pessoas deslocadas e requerentes de asilo?
  • Como cidades poderiam implementar o compromisso de não partilhar dados com o DHS sem comprometer a segurança pública?
  • Quais são os desafios e benefícios de incluir participação africana e da diáspora no desenho de tecnologias de fronteira?

Artigos relacionados