انتشار الذكاء الاصطناعي يثير قلقاً في الهندCEFR B2
٢٣ أبريل ٢٠٢٦
مقتبس من Rezwan, Global Voices • CC BY 3.0
صورة من ADITYA PRAKASH, Unsplash
أدى الانتشار السريع لتقنيات الذكاء الاصطناعي إلى نقاش واسع في الهند حول الخصوصية وسلطات الدولة. في فبراير 2026 انعقدت قمة تأثير الذكاء الاصطناعي في نيودلهي، وفي الوقت نفسه نشرت شرطة دلهي 500 كاميرا في مركز المعارض الدولي وأكثر من 4,000 كاميرا مدعومة بالذكاء الاصطناعي في وسط المدينة. شملت الأنظمة التعرف على الوجوه وتحليلات فيديو آنية، وامتدّ نشرها إلى 32 غرفة تحكم ونظارات ذكية وآلاف الأفراد الذين طابقوا الوجوه مع قواعد بيانات المشتبه فيهم وأصدروا تنبيهات فورية.
وثّقت منظمات حقوقية ومحققون استخدامات أوسع على مستوى البلاد. سجّل مشروع Panoptic (الذي بدأ في 2020) أكثر من 120 عقداً حكومياً لتقنية التعرف على الوجوه بحلول 2024، وسجلت مجموعات أخرى حوادث توسع المراقبة في السفر والأماكن العامة. يربط تطبيق DigiYatra بين هويات Aadhaar وبطاقات الصعود وبيومتريّة الوجه في المطارات، وتلاحظ تقارير أن المسافرين يُضغط عليهم للتسجيل وأن ممارسات البيانات غامضة، كما أن نحو 75 بالمئة من أسهم Digi Yatra Foundation مملوكة للقطاع الخاص وبذلك تثير مسائل حول الوصول إلى المعلومات العامة.
أظهرت تحقيقات Decode وBOOM أن التعرف على الوجوه فشل في تحديد بعض النساء بعد تغير ملامحهن، وتأثر نحو 47 مليون مستفيد من خدمات التنمية المتكاملة للأطفال عندما أُدخلت خطوة التعرف على الوجوه في يوليو 2025؛ فلم يتلقَّ ما يقرب من نصف المستفيدين الطعام بنهاية 2025 لأن النظام لم يطابق وجوههم. من جانب التشريع، أصدرت وزارة الإلكترونيات MeitY إرشادات India AI Governance في نوفمبر 2025 كقواعد غير ملزمة، ويقترح مشروع قانون Artificial Intelligence (Ethics and Accountability), 2025 إنشاء مراجعات أخلاقية وتدقيقات تحيّز لكنه لم يُسنّ بعد. تنطبق قواعد DPDP 2025 على الموافقة وحدود البيانات، وتدعم مهمة IndiaAI (الموافَق عليها في مارس 2024) مشاريع للحد من التحيّز وأدوات الخصوصية وكشف deepfakes، لكن منظمات الحقوق تعتبر الضمانات طوعية وتستمر المراقبة الحكومية دون حماية ملزمة.
طالبت هيئات دولية ومنظمات حقوقية بتعزيز ضمانات حقوق الإنسان، بما في ذلك واجبات العناية الحقوقية الإلزامية وتقييمات أثر قبل النشر، وطرحت توصيات عملية مثل:
- تقييمات أثر على حقوق الإنسان قبل نشر الأنظمة عالية المخاطر
- الإفصاح العام عن الأنظمة وبيانات التدريب ومعدلات الخطأ
- الرقابة القانونية وسبل الانتصاف لسوء استخدام المراقبة بالذكاء الاصطناعي
كلمات صعبة
- الخصوصية — حماية المعلومات الشخصية للأفراد من الاستخدام غير المصرح
- التعرف على الوجوه — تقنية تمييز الوجوه البشرية في الصور أو الفيديو
- تحيّز — ميول النظام لإعطاء نتائج غير عادلةالتحيّز
- بيانات التدريب — المعلومات المستخدمة لتعليم نماذج الذكاء الاصطناعي
- إرشاد — قواعد أو تعليمات لتوجيه الأفعال أو القراراتإرشادات
- رقابة — إشراف وحماية بالقانون ضد الأفعال الضارةالرقابة القانونية
تلميح: مرّر المؤشر أو ركّز أو اضغط على الكلمات المظلَّلة داخل القصة لرؤية تعريفات سريعة أثناء القراءة أو الاستماع.
أسئلة للمناقشة
- ما المخاطر الرئيسية التي ترى أنها تنجم عن نشر أنظمة التعرف على الوجوه في الأماكن العامة؟ اشرح مع أمثلة من النص.
- كيف يمكن للحكومة والمجتمع المدني أن يضمنا حصول الناس على خدمات أساسية مثل الطعام إذا فشل نظام التعرف على الوجوه؟ اذكر خطوات عملية محتملة.
- ما رأيك في مشاركة القطاع الخاص الكبيرة في مشاريع مثل DigiYatra؟ كيف قد تؤثر هذه المشاركة على الشفافية وحق الوصول إلى المعلومات؟