Preocupaciones por la vigilancia con IA en IndiaCEFR B2
23 abr 2026
Adaptado de Rezwan, Global Voices • CC BY 3.0
Foto de ADITYA PRAKASH, Unsplash
La implantación de sistemas de inteligencia artificial en India avanzó con rapidez en 2025 y principios de 2026, antes de contar con reglas claras o mecanismos firmes de rendición de cuentas. En febrero de 2026, durante la India AI Impact Summit en Nueva Delhi, la Policía desplegó una vigilancia masiva para la cumbre: cientos de cámaras en el centro de exposiciones, miles en el centro de Delhi, análisis de vídeo en tiempo real, 32 salas de control, gafas inteligentes con IA y más de 20,000 efectivos que comparaban rostros con bases policiales y enviaban alertas instantáneas.
Organizaciones como Internet Freedom Foundation registraron contratos y despliegues previos: Project Panoptic identificó más de 120 contratos de reconocimiento facial hasta 2024, y reportes de 2025 muestran la expansión de estas tecnologías en aeropuertos y espacios públicos. La aplicación DigiYatra vincula identificaciones Aadhaar, tarjetas de embarque y biometría facial; ese modelo ha recibido críticas por prácticas opacas y presiones para inscribirse.
También hubo consecuencias concretas: investigaciones detectaron que el reconocimiento facial fallaba con cambios físicos por embarazo, enfermedad o envejecimiento. El programa Integrated Child Development Services atiende a 47 millones de mujeres embarazadas, madres lactantes y niños pequeños; tras introducir reconocimiento facial en julio de 2025, a finales de 2025 casi la mitad de los beneficiarios previstos no recibió alimentos. A nivel normativo, India usa una mezcla de leyes y guías: MeitY publicó las India AI Governance Guidelines en noviembre de 2025 como normativa no vinculante; el Artificial Intelligence (Ethics and Accountability) Bill, 2025 proponía crear marcos de ética y auditorías de sesgo pero no se ha promulgado; las DPDP Rules 2025 aplican consentimiento y límites de datos; y la IndiaAI Mission (aprobada en marzo de 2024) apoya proyectos sobre mitigación de sesgos, privacidad y detección de deepfakes, aunque las salvaguardas siguen siendo en gran parte voluntarias.
Organismos internacionales y grupos de derechos piden medidas más fuertes para proteger derechos humanos, incluidas diligencias obligatorias y evaluaciones de impacto antes del despliegue. Recomiendan, entre otras acciones:
- Evaluaciones de impacto sobre derechos humanos antes del despliegue de IA de alto riesgo
- Divulgación pública de sistemas, datos de entrenamiento y tasas de error
- Supervisión legal y recursos por el uso indebido de la vigilancia con IA
Palabras difíciles
- implantación — introducción y puesta en funcionamiento de una tecnología
- rendición de cuentas — obligación de explicar decisiones y aceptar responsabilidades
- vigilancia masiva — supervisión amplia de muchas personas o espacios públicos
- reconocimiento facial — tecnología que identifica rostros mediante imágenes
- despliegue — acción de instalar o poner en funcionamiento algodespliegues
- salvaguarda — medida para proteger derechos o seguridadsalvaguardas
- evaluación de impacto — análisis de efectos sobre derechos o personasevaluaciones de impacto
- sesgo — tendencia o error sistemático en resultadossesgos
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Qué ventajas y riesgos ves en usar vigilancia con IA para la seguridad pública? Da razones.
- Teniendo en cuenta el ejemplo del programa de asistencia, ¿qué problemas puede causar implementar IA sin pruebas previas?
- De las recomendaciones del artículo, ¿cuál priorizarías primero en tu opinión y por qué?
Artículos relacionados
Sensor vestible detecta anticuerpos en 10 minutos
Investigadores de la University of Pittsburgh crearon un sensor vestible que detecta anticuerpos en diez minutos sin extracción de sangre. El dispositivo detecta anticuerpos de SARS-CoV-2 y H1N1 y aparece en la revista Analytical Chemistry.
Activista congoleño alerta sobre la "maldición" de los recursos
François Kaserake Kamate, activista climático y de derechos humanos del este de la RDC, advierte que la explotación y el silencio internacional ponen en riesgo comunidades y medios de vida. Pide solidaridad y acción local.
NeuroBridge: herramienta para entender a personas autistas
Investigadores de Tufts desarrollaron NeuroBridge, una herramienta de inteligencia artificial que ayuda a personas no autistas a comprender las preferencias comunicativas de las personas autistas y a adaptar su manera de hablar.
7amleh: la UE y la exportación de IA que afecta derechos humanos
7amleh concluye que las normas europeas sobre inteligencia artificial no controlan bien la tecnología cuando sale de la UE. Dinero y productos europeos llegan a gobiernos y fuerzas en WANA con poca responsabilidad vinculante en derechos humanos.
Riesgo de ciberataques por tensiones entre Estados Unidos e Irán
Las tensiones entre Estados Unidos e Irán aumentan las dudas sobre posibles ciberataques contra infraestructura. Un experto de Syracuse University analiza riesgos en agua, redes eléctricas y el papel futuro de la computación cuántica.