LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
Preocupaciones por la vigilancia con IA en India — Nivel B2 — person holding brown concrete arch

Preocupaciones por la vigilancia con IA en IndiaCEFR B2

23 abr 2026

Nivel B2 – Intermedio-alto
7 min
369 palabras

La implantación de sistemas de inteligencia artificial en India avanzó con rapidez en 2025 y principios de 2026, antes de contar con reglas claras o mecanismos firmes de rendición de cuentas. En febrero de 2026, durante la India AI Impact Summit en Nueva Delhi, la Policía desplegó una vigilancia masiva para la cumbre: cientos de cámaras en el centro de exposiciones, miles en el centro de Delhi, análisis de vídeo en tiempo real, 32 salas de control, gafas inteligentes con IA y más de 20,000 efectivos que comparaban rostros con bases policiales y enviaban alertas instantáneas.

Organizaciones como Internet Freedom Foundation registraron contratos y despliegues previos: Project Panoptic identificó más de 120 contratos de reconocimiento facial hasta 2024, y reportes de 2025 muestran la expansión de estas tecnologías en aeropuertos y espacios públicos. La aplicación DigiYatra vincula identificaciones Aadhaar, tarjetas de embarque y biometría facial; ese modelo ha recibido críticas por prácticas opacas y presiones para inscribirse.

También hubo consecuencias concretas: investigaciones detectaron que el reconocimiento facial fallaba con cambios físicos por embarazo, enfermedad o envejecimiento. El programa Integrated Child Development Services atiende a 47 millones de mujeres embarazadas, madres lactantes y niños pequeños; tras introducir reconocimiento facial en julio de 2025, a finales de 2025 casi la mitad de los beneficiarios previstos no recibió alimentos. A nivel normativo, India usa una mezcla de leyes y guías: MeitY publicó las India AI Governance Guidelines en noviembre de 2025 como normativa no vinculante; el Artificial Intelligence (Ethics and Accountability) Bill, 2025 proponía crear marcos de ética y auditorías de sesgo pero no se ha promulgado; las DPDP Rules 2025 aplican consentimiento y límites de datos; y la IndiaAI Mission (aprobada en marzo de 2024) apoya proyectos sobre mitigación de sesgos, privacidad y detección de deepfakes, aunque las salvaguardas siguen siendo en gran parte voluntarias.

Organismos internacionales y grupos de derechos piden medidas más fuertes para proteger derechos humanos, incluidas diligencias obligatorias y evaluaciones de impacto antes del despliegue. Recomiendan, entre otras acciones:

  • Evaluaciones de impacto sobre derechos humanos antes del despliegue de IA de alto riesgo
  • Divulgación pública de sistemas, datos de entrenamiento y tasas de error
  • Supervisión legal y recursos por el uso indebido de la vigilancia con IA

Palabras difíciles

  • implantaciónintroducción y puesta en funcionamiento de una tecnología
  • rendición de cuentasobligación de explicar decisiones y aceptar responsabilidades
  • vigilancia masivasupervisión amplia de muchas personas o espacios públicos
  • reconocimiento facialtecnología que identifica rostros mediante imágenes
  • despliegueacción de instalar o poner en funcionamiento algo
    despliegues
  • salvaguardamedida para proteger derechos o seguridad
    salvaguardas
  • evaluación de impactoanálisis de efectos sobre derechos o personas
    evaluaciones de impacto
  • sesgotendencia o error sistemático en resultados
    sesgos

Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.

Preguntas de discusión

  • ¿Qué ventajas y riesgos ves en usar vigilancia con IA para la seguridad pública? Da razones.
  • Teniendo en cuenta el ejemplo del programa de asistencia, ¿qué problemas puede causar implementar IA sin pruebas previas?
  • De las recomendaciones del artículo, ¿cuál priorizarías primero en tu opinión y por qué?

Artículos relacionados