Kecerdasan Buatan di Pengadilan IndiaCEFR B2
5 Des 2025
Diadaptasi dari Sakkcham Singh Parmaar, Global Voices • CC BY 3.0
Foto oleh Rishu Bhosale, Unsplash
Pengadilan India mencoba mengatasi tumpukan perkara yang sangat besar dengan digitalisasi dan alat kecerdasan buatan. Program e-Courts, yang dimulai pada 2007, memperkenalkan pengajuan elektronik, daftar digital, dan putusan online. Phase III dari proyek ini menitikberatkan penerapan pembelajaran mesin dan teknologi bahasa pada arsip yudisial yang telah didigitalkan.
Salah satu inovasi besar adalah SUPACE (Supreme Court Portal for Assistance in Courts Efficiency). SUPACE membantu hakim dan staf penelitian dengan mengidentifikasi fakta, menyarankan preseden, dan menyusun garis besar, tetapi platform ini tidak mengambil keputusan. Mahkamah Agung juga mengembangkan SUVAS (Vidhik Anuvaad Software) untuk menerjemah putusan dari bahasa Inggris ke bahasa-bahasa India lain, dan beberapa high court sedang menguji alat terjemahan untuk putusan berbahasa daerah.
Penerapan praktis sudah terlihat: transkripsi otomatis untuk perkara konstitusional mulai dipakai dan sejak 2023 menghasilkan teks yang dapat dicari hampir secara waktu nyata. Pada 2025, High Court of Kerala memerintahkan pengadilan bawahan memakai Adalat.AI untuk merekam keterangan saksi mulai 1 November 2025; Adalat.AI dikembangkan oleh startup dengan hubungan penelitian ke Harvard dan MIT, dan pengadilan mengizinkan alternatif yang diperiksa Direktorat TI jika sistem gagal.
Meski ada potensi manfaat—mengurangi kesalahan manusia, menemukan kesalahan pengajuan elektronik, mempersingkat sidang, dan memperluas akses keadilan di distrik terpencil—para hakim dan akademisi memperingatkan risiko. Delhi High Court pada 2023 menolak argumen yang bergantung pada ChatGPT dan membiarkan seorang pembeli rumah menarik petisi setelah menemukan pengajuan yang dihasilkan oleh ChatGPT berisi kutipan keliru. Kekhawatiran lain meliputi ketidakjelasan model AI, bias dalam data pelatihan, serta perlindungan catatan yudisial yang memuat data sensitif; pedoman menyarankan agar bahan sensitif tidak diunggah ke cloud publik, dan Digital Personal Data Protection Act, 2023 berlaku untuk pemrosesan otomatis.
Sebagai respons, kebijakan pengadilan mencari jalan tengah: kebijakan AI Kerala memperlakukan AI sebagai alat administratif, melarang AI generatif menyusun putusan atau memprediksi hasil, dan melarang platform eksternal yang memerlukan pengunggahan informasi rahasia. Mahkamah Agung membentuk Komite AI dan bekerja dengan institusi seperti IIT Madras. Para ahli merekomendasikan audit bias, pengungkapan wajib saat AI digunakan, peningkatan infrastruktur, pelatihan yudisial, dan jalur bagi pihak berperkara untuk menantang peran AI, sementara hakim berupaya menjaga manusia tetap memegang kendali dan memperlakukan AI sebagai asisten, bukan orakel.
- Audit bias
- Pengungkapan wajib penggunaan AI
- Infrastruktur dan pelatihan
- Jalur tantangan bagi pihak berperkara
Kata-kata sulit
- digitalisasi — proses mengubah data menjadi format digital
- pembelajaran mesin — metode membuat komputer belajar dari data
- arsip yudisial — rekaman dan dokumen resmi pengadilan
- preseden — keputusan pengadilan sebelumnya yang dijadikan rujukan
- transkripsi — penulisan ulang suara menjadi teks
- ketidakjelasan — kondisi tidak jelas atau sulit dipahami
- pengungkapan wajib — keharusan memberitahu saat alat otomatis dipakai
Tips: arahkan kursor, fokus, atau ketuk kata yang disorot di dalam teks untuk melihat definisi singkat sambil membaca atau mendengarkan.
Pertanyaan diskusi
- Bagaimana menurut Anda digitalisasi dan AI dapat memperluas akses keadilan di distrik terpencil? Berikan alasan atau contoh.
- Apa risiko utama yang ditunjukkan artikel terkait penggunaan AI pada dokumen yudisial dan data sensitif?
- Sejauh mana pengadilan harus membolehkan penggunaan platform eksternal yang memerlukan pengunggahan informasi rahasia? Jelaskan dengan alasan.
Artikel terkait
Model Bahasa Mengubah Penilaian Berdasarkan Identitas Pengarang
Peneliti University of Zurich menemukan bahwa large language models mengubah penilaian teks ketika diberi tahu siapa pengarangnya. Tanpa sumber, model sering sepakat, tetapi menyebut pengarang memicu bias, termasuk bias anti-Cina.
Akses Tor ke Situs Pemerintah Meksiko Terbuka Sebagian
Beberapa situs pemerintahan Meksiko kini bisa diakses lewat jaringan Tor setelah pemantauan menemukan pencabutan blok pada www.gob.mx. Namun beberapa layanan, termasuk datos.gob.mx dan kotak pelapor lewat Tor, masih terblokir atau dipindah.
Permainan Komputer Bantu Perbaiki Otak Setelah Cedera
Studi menunjukkan orang dewasa dengan cedera otak traumatik dapat memperbaiki struktur otak dan kemampuan berpikir dengan menyelesaikan permainan kognitif berbasis komputer. Perubahan terukur terlihat pada neuroplastisitas, kecepatan pemrosesan, perhatian, dan memori.
AI dan risiko bagi komunitas LGBTQ+
Kecerdasan buatan semakin hadir, tetapi data dan desain model dapat menghasilkan bias terhadap orang LGBTQ+. Advokat meminta perlindungan lebih kuat, kerja sama dengan pengembang, dan larangan pada sistem yang mendeteksi atau mengklasifikasi gender.