IA y control migratorio en Estados UnidosCEFR B1
25 abr 2026
Adaptado de UntoldMag, Global Voices • CC BY 3.0
Foto de Mathias Reding, Unsplash
Organizaciones como la Black Alliance for Just Immigration (BAJI) y clínicas legales de la Universidad de California presentaron en 2023 un informe ante el relator especial de la ONU sobre racismo. El documento sostiene que las políticas fronterizas de Estados Unidos que usan inteligencia artificial violan obligaciones del International Convention on the Elimination of All Forms of Racial Discrimination (ICERD), ratificado por Estados Unidos en 1994.
El informe describe tecnologías de vigilancia —como torres autónomas (Anduril Towers) y pequeños drones (sUAS)— que rastrean personas antes de que alcancen una frontera terrestre. También denuncia sistemas interiores: la aplicación CBP One exigió selfies para verificar solicitantes, pero fallaba en reconocer tonos de piel más oscuros entre 10 y 100 veces con más frecuencia que rostros blancos. Además, el Automated Targeting System (ATS) usó bases de datos para señalar riesgos, por ejemplo cuando restricciones en 2020 afectaron desproporcionadamente a nigerianos.
Dentro del país, ICE utiliza herramientas predictivas como un “Hurricane Score” de B.I. Incorporated y la plataforma RAVEn, que recoge datos de 56 países. USCIS aplica Asylum Text Analytics (ATA) y un Evidence Classifier para filtrar solicitudes, lo que puede perjudicar a personas que no hablan inglés y a casos atípicos. Las organizaciones piden transparencia, supervisión independiente y que no se use IA hasta eliminar la discriminación.
Palabras difíciles
- relator — Persona designada por la ONU para investigarrelator especial
- vigilancia — Observación y control de personas o lugares
- torre autónoma — Estructura con sensores que funciona sin operadortorres autónomas
- dron — Aparato volador no tripulado usado para vigilanciadrones
- rastrear — Seguir o localizar movimientos de personasrastrean
- selfie — Foto tomada por una persona a su rostroselfies
- desproporcionadamente — De manera que afecta mucho más a un grupo
- discriminación — Trato injusto basado en raza u otra condición
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Qué consecuencias crees que tiene que la IA falle más con tonos de piel oscuros? Explica en pocas frases.
- ¿Qué medidas concretas propondrías para aumentar la transparencia y la supervisión de estas tecnologías?
- ¿Estás de acuerdo con suspender el uso de IA hasta eliminar la discriminación? ¿Por qué sí o por qué no?
Artículos relacionados
Matrimonio infantil en Pakistán y la nueva ley que fija 18 años
En el sur de Punjab los matrimonios infantiles siguen siendo comunes. En mayo de 2025 Pakistán aprobó una ley que fija la edad legal en 18; hay reacciones políticas, estadísticas preocupantes y medidas como un registro digital de nacimientos.
Más datos y tecnología en los Juegos Olímpicos de Invierno 2026
Los Juegos Olímpicos de Invierno 2026 usarán más datos y herramientas tecnológicas para estudiar el rendimiento y mejorar la transmisión. Expertos como Hassan Rafique estudian estos cambios y hay dudas sobre equidad y acceso.