تحديث المحاكم الهندية بالذكاء الاصطناعيCEFR B2
٥ ديسمبر ٢٠٢٥
مقتبس من Sakkcham Singh Parmaar, Global Voices • CC BY 3.0
صورة من Rishu Bhosale, Unsplash
تسعى الهند لتحديث نظامها القضائي لمواجهة تراكم عشرات الملايين من القضايا عبر مشروع e-Courts الذي بدأ عام 2007. المرحلة الثالثة تركز على تطبيقات التعلم الآلي وتقنيات معالجة اللغة على القواعد والأحكام المقننة رقمياً، وفي هذا الإطار ظهرت أدوات جديدة للخدمات القانونية والبحث القضائي.
منصة SUPACE (Supreme Court Portal for Assistance in Courts Efficiency) هي ابتكار مهم يساعد القضاة وفرق البحث على تحديد الوقائع، اقتراح السوابق، وصياغة مخططات للأحكام، لكنها لا تصدر قرارات. كما طورت المحكمة العليا برنامج Vidhik Anuvaad Software (SUVAS) لترجمة الأحكام من الإنجليزية إلى لغات هندية، وتختبر بعض المحاكم أدوات لتحويل الأحكام المحلية إلى الإنجليزية. الاعتماد على النسخ الآلي أوجد نصوصاً قابلة للبحث تقريباً في الوقت الحقيقي منذ 2023.
في 2025 أصدرت محكمة كيرالا أمراً بإلزام المحاكم دون العليا باستخدام أداة تحويل الكلام إلى نص المدعومة بالذكاء الاصطناعي Adalat.AI لتسجيل إفادات الشهود اعتباراً من 1 نوفمبر 2025. طورت Adalat.AI شركة ناشئة لها روابط بحثية مع Harvard وMIT، ويسمح أمر كيرالا للقضاة باستخدام منصات بديلة فُحصت من قبل إدارة تقنية المعلومات بالمحكمة العليا إذا فشل النظام.
تُبرز المناقشات فوائد عدة مثل تقليل أخطاء النسخ، كشف الأخطاء البسيطة في التقديم الإلكتروني، تقصير مدة الجلسات، والمساعدة في ترتيب الأولويات، مما قد يحسّن الوصول إلى العدالة في المناطق النائية. ومع ذلك ثارت مخاوف من مخاطر ملموسة: رفضت محكمة دلهي العليا قبول مرافعات اعتمدت على ChatGPT عام 2023 بعد وجود اقتباسات وأدلّة مختلقة، وظهرت مخاوف من غموض النماذج، والميول في بيانات التدريب التي قد تعكس الطبقة أو الجنس أو الطائفة أو الدين وتؤدي إلى "تكبير التمييز". كما تُنصح الإرشادات بعدم رفع السجلات القضائية الحساسة إلى سحابات عامة. ينطبق قانون Digital Personal Data Protection Act، 2023 على المعالجة الآلية.
- توصيات الخبراء: تدقيقات للانحياز.
- إفصاح إلزامي عند استخدام الذكاء الاصطناعي.
- بنية تحتية أفضل وتدريب قضائي.
- طرق لتمكين الأطراف من الطعن في دور الذكاء الاصطناعي.
تسعى سياسات مثل سياسة كيرالا إلى طريق وسط: تعامل الذكاء الاصطناعي كأداة إدارية، وتحظر الذكاء التوليدي في صياغة الأحكام أو التنبؤ بنتائج القضايا، وتمنع رفع معلومات سرية إلى منصات خارجية. أصرّ القضاة على إبقاء الإنسان مسؤولاً وجعل الذكاء مساعداً لا مرجعاً نهائياً، وشكلت المحكمة العليا لجنة للذكاء الاصطناعي وتتعاون مع مؤسسات مثل IIT Madras.
كلمات صعبة
- التعلم الآلي — تقنيات تجعل الحاسوب يتعلم من البيانات
- معالجة اللغة — طرق حاسوبية لفهم وتحليل النصوص والكلام
- النسخ الآلي — تحويل الكلام المسجل إلى نص مكتوب تلقائياً
- الذكاء التوليدي — نوع من الذكاء الاصطناعي ينتج نصوصاً أو صوراً جديدة
- إفصاح إلزامي — إعلان رسمي عند استخدام أداة ذكاء اصطناعي
- سحابات عامة — خدمات تخزين ومعالجة عبر الإنترنت متاحة للعامة
تلميح: مرّر المؤشر أو ركّز أو اضغط على الكلمات المظلَّلة داخل القصة لرؤية تعريفات سريعة أثناء القراءة أو الاستماع.
أسئلة للمناقشة
- هل تعتقد أن أدوات مثل SUPACE وAdalat.AI ستسهم فعلاً في تسريع القضايا وتحسين الوصول إلى العدالة في المناطق النائية؟ اشرح مع أمثلة أو أسباب مستمدة من النص.
- ما المخاطر الرئيسية المرتبطة باستخدام الذكاء الاصطناعي في النظام القضائي كما ذُكرت في المقال؟ اقترح خطوات عملية للتقليل من هذه المخاطر.
- ما رأيك في المبدأ القاضي بأن يبقى الإنسان مسؤولاً عن القرارات القضائية بينما يُستخدم الذكاء كأداة مساعدة؟ اذكر مزايا ومخاطر هذا الموقف مستنداً إلى محتوى المقال.