Snelle invoering van AI in India roept vragen opCEFR B2
23 apr 2026
Gebaseerd op Rezwan, Global Voices • CC BY 3.0
Foto door ADITYA PRAKASH, Unsplash
De snelle invoering van kunstmatige intelligentie in India rond 2025–begin 2026 leidde tot brede zorgen over privacy, burgerrechten en mogelijk staatsgezag. Tijdens de India AI Impact Summit in februari 2026 kwamen wereldleiders, technologiebedrijven, maatschappelijke organisaties en beleidsmakers samen, maar in dezelfde periode zette de Delhi Police grootschalige surveillancesystemen in: 500 beveiligingscamera's bij het internationale tentoonstellingscentrum en meer dan 4.000 AI-gestuurde camera's door heel centraal-Delhi. Die systemen gebruikten gezichtsherkenning, realtime videoanalyse, 32 controlekamers, slimme brillen met AI en meer dan 20.000 personeelsleden om de top en aangrenzende gebieden te bewaken.
Onderzoeksprojecten en organisaties zoals de Internet Freedom Foundation en SFLC.in noteerden ruime verspreiding van gezichtsherkenning en tal van overheidscontracten. Project Panoptic registreerde meer dan 120 overheidscontracten tot 2024. De door de overheid gesteunde DigiYatra-app koppelt Aadhaar‑ID's, instapkaarten en gezichtsbiometrie; IFF waarschuwt voor ondoorzichtige gegevenspraktijken en meldt dat ongeveer 75 procent van de aandelen van de Digi Yatra Foundation in privébezit is, waardoor zij buiten de Right to Information Act, 2015 valt.
Praktische problemen kwamen aan het licht: onderzoeken van Decode en BOOM lieten zien dat gezichtsherkenning soms faalt bij vrouwen wier uiterlijk verandert door zwangerschap, ziekte of veroudering. Na een gezichtsherkenningsstap in juli 2025 had tegen het einde van 2025 bijna de helft van de beoogde begunstigden geen voedsel ontvangen omdat het systeem hun gezicht niet herkende.
India baseert zich op bestaande wetten en niet-bindende richtlijnen: MeitY publiceerde in november 2025 de India AI Governance Guidelines als soft law, en The Artificial Intelligence (Ethics and Accountability) Bill, 2025 is nog niet aangenomen. Internationale instanties en mensenrechtenorganisaties vragen om strengere waarborgen, waaronder verplichte due diligence, pre-deployment impactassessments, meer transparantie over systemen en gegevens, en duidelijk wettelijke aansprakelijkheid en toezicht.
- Effectbeoordelingen voor mensenrechten vóór inzet van hoogrisico-AI
- Openbaarmaking van systemen, trainingsdata en foutpercentages
- Juridisch toezicht en rechtsmiddelen bij misbruik van toezicht-AI
Moeilijke woorden
- surveillancesysteem — apparatuur en procedures om mensen of plaatsen te bewakensurveillancesystemen
- gezichtsherkenning — techniek die gezichten op foto's of video identificeertgezichtsherkenningsstap
- biometrie — gebruik van lichaamskenmerken voor identificatie of controlegezichtsbiometrie
- richtlijn — niet-verplichte regel of aanbeveling voor beleidrichtlijnen
- effectbeoordeling — onderzoek naar mogelijke gevolgen voor mensenrechten en samenlevingEffectbeoordelingen
- hoogrisico-AI — kunstmatige systemen met groot risico voor mensen
- transparantie — openheid over systemen, data en beslissingen
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Welke gevolgen kan de grootschalige inzet van surveillancesystemen hebben voor privacy en burgerrechten in steden?
- Op welke manier zouden verplichte effectbeoordelingen vóór inzet van hoogrisico-AI praktische problemen kunnen voorkomen?
- Moeten organisaties die persoonsgegevens beheren, zoals bij DigiYatra, verplicht meer openbaar maken? Leg uit met voorbeelden.
Gerelateerde artikelen
Nieuwe methode verlaagt CO2 en beschermt servers
Onderzoekers stellen Federated Carbon Intelligence (FCI) voor: een systeem dat realtime servergezondheid en milieugegevens koppelt om CO2-uitstoot te verminderen en hardware langer te laten werken. Simulaties tonen grote winst; testen in echte datacenters is de volgende stap.
Hoe tekorten leiden tot noodsituaties in Turkije
Een auteur beschrijft uit eigen ervaring hoe voedsel, gezondheid en diensten elkaar versterken in Turkije. Problemen verspreiden zich via leveringen, online informatie en gevaarlijke routes en vereisen blijvende solidariteit en praktische hulp.
TikTok en clanidentiteit in Somalië
TikTok beïnvloedt clanidentiteit in Somalië: jongeren en vrouwen tonen clanloyaliteit, clangevechten in livestreams leiden tot donaties en soms financiering van conflicten zoals in Laasanood. Experts adviseren moderatie en digitale geletterdheid.