Preocupações com vigilância por IA na ÍndiaCEFR B2
23/04/2026
Adaptado de Rezwan, Global Voices • CC BY 3.0
Foto de ADITYA PRAKASH, Unsplash
A rápida entrada de ferramentas de IA na vida pública da Índia suscitou debates sobre privacidade, liberdades civis e o poder do Estado, pois implantações em 2025 e no início de 2026 ocorreram muitas vezes antes de existirem regras ou mecanismos claros de responsabilização. Em fevereiro de 2026, durante o India AI Impact Summit em Nova Deli, sistemas de vigilância em grande escala foram usados nas imediações do evento.
Segundo relatos, a Delhi Police instalou 500 câmaras no centro de exposições internacional e mais de 4.000 câmaras com IA na área central de Deli. Os sistemas incluíam reconhecimento facial, análise de vídeo em tempo real, 32 salas de controlo, óculos inteligentes com IA e mais de 20.000 agentes que comparavam rostos com bases policiais e enviavam alertas instantâneos. Investigações jornalísticas e de grupos como o Project Panoptic e o SFLC.in documentaram contratos governamentais e incidentes que mostram expansão da vigilância por IA em viagens e espaços públicos.
Casos práticos mostram riscos: investigações da Decode e do BOOM descobriram que o reconhecimento facial deixou de identificar algumas mulheres cujos rostos mudaram por gravidez, doença ou envelhecimento. O Integrated Child Development Services atende cerca de 47 milhões de gestantes, mães que amamentam e crianças; depois que uma etapa de reconhecimento facial foi introduzida em julho de 2025, quase metade dos beneficiários previstos não recebeu alimentação até o fim de 2025.
O quadro legal indiano é híbrido. A MeitY publicou as India AI Governance Guidelines em novembro de 2025 como soft law; o Artificial Intelligence (Ethics and Accountability) Bill, 2025 não foi promulgado; e as DPDP Rules 2025 introduziram normas sobre consentimento e limites de dados. A IndiaAI Mission, aprovada em março de 2024, financia projetos de mitigação de viés e ferramentas de privacidade, mas grupos de direitos dizem que as salvaguardas continuam voluntárias e que a vigilância estatal prossegue sem proteções vinculantes.
Órgãos internacionais e grupos de direitos recomendam salvaguardas mais fortes, incluindo due diligence obrigatória de direitos humanos, avaliações de impacto antes de implantações de alto risco e maior transparência, supervisão e responsabilidade para reduzir o risco de autoritarismo digital.
- Avaliações de impacto sobre direitos humanos antes de implantações de IA de alto risco
- Divulgação pública de sistemas, dados de treino e taxas de erro
- Supervisão legal e recursos para uso indevido de IA de vigilância
Palavras difíceis
- vigilância — observação sistemática de pessoas ou espaços públicos
- responsabilização — obrigação de responder por atos ou decisões
- reconhecimento facial — tecnologia que identifica pessoas pelos traços do rosto
- salvaguardas — medidas que protegem direitos e reduzem riscos
- viés — tendência ou parcialidade que prejudica resultados
- transparência — clareza sobre como sistemas e dados são usados
- supervisão — controle ou vigilância por autoridades ou órgãos legais
- avaliação de impacto — análise dos efeitos de uma política ou tecnologiaavaliações de impacto
- consentimento — autorização dada por pessoa para usar seus dados
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Que riscos para liberdades civis e privacidade você identifica no uso de vigilância por IA descrito no texto? Dê exemplos do artigo.
- Quais das salvaguardas mencionadas no texto (por exemplo, avaliações de impacto, transparência, supervisão) você considera mais importantes? Explique por quê.
- Como deveriam as autoridades equilibrar a necessidade de segurança pública com o direito ao consentimento e à proteção de dados, segundo os problemas relatados no artigo?
Artigos relacionados
Pessoas com degeneração macular estimam chegada de veículos de modo semelhante
Um estudo com realidade virtual comparou adultos com degeneração macular relacionada à idade (AMD) e adultos com visão normal. Os resultados mostraram desempenho parecido entre os grupos e nenhuma vantagem clara quando visão e som estavam juntos.
Ferramenta de bioluminescência mede atividade em células cerebrais vivas
Pesquisadores criaram uma ferramenta chamada CaBLAM que usa bioluminescência para registrar atividade dentro de células cerebrais. Ela funciona em camundongos e peixes-zebra e permite gravações por horas sem luz externa.