भारत में AI निगरानी और अधिकारों पर प्रश्नCEFR B2
23 अप्रैल 2026
आधारित: Rezwan, Global Voices • CC BY 3.0
फोटो: ADITYA PRAKASH, Unsplash
2025 के बाद और खासकर 2026 की शुरुआत में हुए घटनाक्रमों ने यह स्पष्ट किया कि AI उपकरण सार्वजनिक जीवन में तेज़ी से प्रवेश कर रहे हैं, अक्सर स्पष्ट नियम या जवाबदेही के बिना। फरवरी 2026 में नई दिल्ली में India AI Impact Summit में वैश्विक नेता, तकनीकी कंपनियाँ, नागरिक समाज और नीति निर्माता एक जगह आए। उसी समय दिल्ली पुलिस ने अंतरराष्ट्रीय प्रदर्शन केन्द्र पर 500 सुरक्षा कैमरे और केंद्रीय दिल्ली में 4,000 से अधिक AI‑सक्षम कैमरे तैनात किए। इन प्रणालियों में चेहरे की पहचान, वास्तविक‑समय वीडियो विश्लेषण, 32 कंट्रोल रूम, AI‑सक्षम स्मार्ट चश्मे और 20,000 से अधिक कर्मी शामिल थे और पुलिस संदिग्ध डेटाबेस से चेहरे मिलाकर तत्काल अलर्ट भेजती थी।
नागरिक अधिकार समूहों और जांचकर्ताओं ने देशव्यापी AI उपयोग कागजात में दर्ज किया। Internet Freedom Foundation का Project Panoptic (आरंभ 2020) ने 2024 तक चेहरे की पहचान के लिए 120 से अधिक सरकारी अनुबंध रिकॉर्ड किए। SFLC.in ने 2025 की घटनाओं में यात्रा व सार्वजनिक स्थानों में निगरानी के विस्तार का सार दिया। DigiYatra ऐप हवाई अड्डों पर Aadhaar आईडी, बोर्डिंग पास और चेहरे की बायोमेट्रिक्स जोड़ता है; IFF का कहना है कि यात्रियों को अक्सर नामांकन के लिए दबाव डाला जाता है और डेटा प्रथाएँ अस्पष्ट रहती हैं। IFF के अनुसार Digi Yatra Foundation के शेयरों में लगभग 75 प्रतिशत निजी स्वामित्व में हैं, जिससे यह सूचना के अधिकार अधिनियम, 2015 के दायरे से बाहर आ सकता है।
Decode और BOOM की जांचों में पाया गया कि चेहरे की पहचान गर्भावस्था, बीमारी या उम्र बढ़ने से चेहरे में बदलाव वाली कुछ महिलाओं को पहचानने में विफल रही। Integrated Child Development Services लगभग 47 million गर्भवती महिलाओं, स्तनपान कराने वाली माताओं और छोटे बच्चों को सेवाएँ देती है; जुलाई 2025 में चेहरे की पहचान चरण जोड़ने के बाद 2025 के अंत तक लगभग आधे लक्षित लाभार्थियों को भोजन नहीं मिला क्योंकि सिस्टम उनके चेहरों से मेल नहीं खा रहा था।
कानूनी ढांचा मिश्रित है: MeitY ने नवंबर 2025 में India AI Governance Guidelines जारी किए जो बाध्यकारी नहीं हैं; Artificial Intelligence (Ethics and Accountability) Bill, 2025 नैतिक समीक्षा और पक्षपात ऑडिट बनाएगा पर यह लागू नहीं हुआ है; DPDP Rules 2025 सहमति और डेटा सीमाएँ लागू करते हैं। MeitY का IndiaAI Mission (स्वीकृत मार्च 2024) पक्षपात कम करने और गोपनीयता उपकरणों का समर्थन करता है, फिर भी अधिकार समूह कहते हैं कि सुरक्षा मानक स्वैच्छिक बने हुए हैं और राज्य‑स्तरीय निगरानी बिना बाध्यकारी सुरक्षाओं के जारी है। अंतरराष्ट्रीय निकाय पूर्व‑परिनियोजन प्रभाव आकलन और मानवाधिकार सुरक्षा की माँग कर रहे हैं। अधिकार समूह स्पष्ट कानून, पारदर्शिता (प्रणालियों, प्रशिक्षण डेटा और त्रुटि दरें), और दायित्व तथा निगरानी की माँग करते हैं ताकि डिजिटल तानाशाही का जोखिम कम किया जा सके।
- उच्च‑जोखिम AI तैनाती से पहले मानवाधिकार प्रभाव आकलन
- प्रणालियों, प्रशिक्षण डेटा और त्रुटि दरों का सार्वजनिक प्रकटीकरण
- निगरानी AI दुरुपयोग के लिए कानूनी निगरानी और क्षतिपूर्ति
कठिन शब्द
- जवाबदेही — किसी कार्रवाई के लिए जिम्मेदार ठहराने का तरीका
- तैनात करना — किसी जगह काम या उपकरण लगाने की क्रियातैनात किए
- चेहरे की पहचान — चेहरे के संकेतों से किसी व्यक्ति की पुष्टि करना
- पक्षपात — किसी समूह या निर्णय में अनुचित भेदभाव होना
- पारदर्शिता — निर्णय या प्रक्रियाओं का खुला और स्पष्ट होना
- निगरानी — लोगों या गतिविधियों पर लगातार नजर रखना
- प्रभाव आकलन — किसी नीति या तकनीक के असर का मूल्यांकन
युक्ति: जब आप किसी भी भाषा में कहानी पढ़ें या ऑडियो सुनें, तो लेख में हाइलाइट किए गए शब्दों पर होवर/फ़ोकस/टैप करें और तुरंत छोटी-सी परिभाषा देखें।
चर्चा के प्रश्न
- लेख में दी गई दिल्ली पुलिस और DigiYatra जैसी तैनाती देखकर आप सार्वजनिक सुरक्षा और निजता के बीच कैसे संतुलन चाहेंगे? अपने विचार कारण सहित बताइए।
- ICDS में चेहरे की पहचान की वजह से भोजन न मिलने की घटना से किन प्रकार के जोखिम स्पष्ट हुए हैं? आप कौन‑से सुधार सुझाएँगे?
- पारदर्शिता और दायित्व बढ़ाने के लिए किन कानूनी या तकनीकी कदमों से मदद मिल सकती है? लेख में बताए गए अनुरोधों का संदर्भ दें।