📖+40 XP
🎧+25 XP
✅+45 XP
等级 B2 – 中高级CEFR B2
6 分钟
325 字
多起事件显示印度在缺乏约束性保护时快速扩大人工智能监控。2026年2月的India AI Impact Summit把全球领导人和政策制定者聚集在新德里。为保障会议和周边安全,德里警察在会展中心部署了500台安防摄像头,并在市中心部署了超过4,000台具备人工智能功能的摄像头。系统使用面部识别和实时视频分析,依托32个控制室、AI智能眼镜以及超过20,000名人员,将人脸与警方嫌疑人数据库比对并发送即时警报。
权利组织和调查者记录了更广泛的应用与后果。Project Panoptic和其他汇总显示,到2024年已有大量政府面部识别合同;DigiYatra把Aadhaar、登机牌和人脸生物特征关联,报告称乘客常被迫注册且数据处理不透明,约75%的DigiYatra Foundation股份为私人持有,不受部分信息法约束。
面部识别在公共服务中也出现问题。综合儿童发展服务覆盖约4700万名孕妇、哺乳期母亲和幼儿;自2025年7月引入面部识别步骤后,到2025年底,几乎有一半的目标受益人未能领取到食物,原因是系统无法匹配其面容。
法律与治理方面,MeitY于2025年11月发布非约束性的India AI Governance Guidelines。《人工智能(伦理与问责)法案,2025》拟设伦理审查与偏见审计但尚未通过,DPDP Rules 2025适用同意与数据限制。IndiaAI Mission(获批于2024年3月)支持偏见缓解、隐私工具和深度伪造检测等项目,但权利组织指出这些保障多属自愿。
- 在高风险AI部署前进行人权影响评估
- 公开系统、训练数据和错误率
- 对监控AI的滥用提供法律监督和救济
难词
- 约束性 — 有法律或规则限制的性质非约束性
- 部署 — 把设备或系统安装并投入使用部署了
- 面部识别 — 通过人脸图像确认或辨认身份
- 偏见 — 对某些群体的不公正或系统性差别偏见审计, 偏见缓解
- 人权影响评估 — 评估政策或项目对人权的影响
- 问责 — 对行为或决定追究责任和解释
- 训练数据 — 用来让人工智能模型学习的原始样本
提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。
讨论问题
- 你如何在大型活动安保中权衡使用人工智能监控与保护个人隐私?请说明理由并举例。
- 当面部识别导致许多受益人无法领取救济时,政府应采取哪些技术或管理上的改进?请列出两三项并说明原因。
- 私人公司在公共监控系统中的大量持股带来哪些治理风险?应如何改变法律或监管以应对这些风险?