IA e controlo de fronteiras nos EUACEFR B2
25/04/2026
Adaptado de UntoldMag, Global Voices • CC BY 3.0
Foto de Mathias Reding, Unsplash
A utilização crescente de inteligência artificial no contexto das fronteiras dos Estados Unidos tem sido alvo de críticas por parte de grupos de direitos humanos. O texto original, publicado pela primeira vez em 25 de novembro de 2025 e republicado em abril de 2026, documenta relatos de que sistemas de vigilância e ferramentas de triagem podem reproduzir discriminação racial e transformar deslocados em ameaças à segurança.
O relatório de 2023, apresentado pela Black Alliance for Just Immigration e pelas clínicas da UCI ao Relator Especial da ONU sobre o racismo, afirma que políticas fronteiriças que usam IA violam obrigações da International Convention on the Elimination of All Forms of Racial Discrimination, ratificada pelos Estados Unidos em 1994. Cita tecnologias como torres autónomas (incluindo Anduril Towers), Small Unmanned Aircraft Systems (sUAS), e falhas em aplicações como o CBP One, que teve problemas para reconhecer peles mais escuras e faltar traduções essenciais.
Outros exemplos incluem o Automated Targeting System (ATS), que passou a sinalizar nigerianos de forma desproporcional durante as restrições de viagem de 2020, e ferramentas preditivas usadas pelo ICE, como um "Hurricane Score" fornecido pela B.I. Incorporated e a plataforma RAVEn, que agrega dados de escritórios em 56 países. O USCIS emprega Asylum Text Analytics (ATA) e um Evidence Classifier para triagem, o que pode prejudicar falantes não nativos de inglês e pessoas com registos atípicos.
As recomendações das organizações incluem uma abordagem descolonial à IA inspirada no Cosmo uBuntu, participação africana e da diáspora no desenho e operação das ferramentas, notificação imediata e opções de exclusão voluntária, proibições federais de usos racialmente discriminatórios, supervisão independente, divulgação pública, consultas com partes interessadas, remédios para danos e compromissos de cidades para não partilhar dados com o DHS. Enquanto os sistemas não estiverem livres de discriminação e não incluírem perspectivas diversas, defendem que a IA não deve ser usada em nenhuma fronteira.
Palavras difíceis
- vigilância — observação contínua de pessoas ou lugares
- triagem — processo de avaliar e separar casos ou pessoas
- discriminação — tratamento injusto com base em características
- descolonial — que rejeita ou questiona legados coloniais
- diáspora — comunidade espalhada de origem comum em vários países
- supervisão — verificação externa e contínua de atividades ou sistemas
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Que efeitos práticos o uso de ferramentas de IA discriminatórias pode ter sobre pessoas deslocadas e requerentes de asilo?
- Como cidades poderiam implementar o compromisso de não partilhar dados com o DHS sem comprometer a segurança pública?
- Quais são os desafios e benefícios de incluir participação africana e da diáspora no desenho de tecnologias de fronteira?
Artigos relacionados
Romani na Grande São Paulo buscam reconhecimento
Reportagem publicada em 30 de maio de 2025 no site Agência Mural descreve a luta por reconhecimento e acesso a serviços entre romani que vivem na periferia da Grande São Paulo, incluindo problemas causados por enchentes e falta de opção no censo do IBGE.