Indien modernisiert Gerichte mit KI und digitalen WerkzeugenCEFR B2
5. Dez. 2025
Adaptiert nach Sakkcham Singh Parmaar, Global Voices • CC BY 3.0
Foto von Rishu Bhosale, Unsplash
Indiens Justiz steht vor zwei Herausforderungen: einem enormen Rückstand an Verfahren und dem Einsatz neuer digitaler Technologien. Der digitale Wandel begann 2007 mit dem e-Courts-Programm, das E-Filing, digitale Verfahrenslisten und Online-Urteile einführte. In Phase III liegt der Schwerpunkt auf Machine Learning und Sprachtechnologien, die direkt auf digitalisierte Gerichtsakten angewendet werden sollen.
Eine zentrale Neuerung ist SUPACE (Supreme Court Portal for Assistance in Courts Efficiency). Die Plattform identifiziert Fakten, schlägt Präzedenzfälle vor und erstellt Entwurfsgliederungen, sie trifft jedoch keine Entscheidungen. Der Oberste Gerichtshof entwickelte SUVAS für Übersetzungen aus dem Englischen, und einige High Courts testen Werkzeuge für Regionalsprache-Übersetzungen. Automatisierte Transkription wurde in Verfassungsangelegenheiten eingeführt und liefert seit 2023 nahezu in Echtzeit durchsuchbare Texte.
Der High Court von Kerala ordnete an, dass ab 1. November 2025 das KI-gestützte Sprach-zu-Text-Tool Adalat.AI zur Aufnahme von Zeugenaussagen verwendet wird; das Tool stammt von einem Start-up mit Forschungsbeziehungen zu Harvard und MIT. Bei Ausfällen dürfen Richter alternative, von der IT-Direktion geprüfte Plattformen nutzen. Befürworter nennen Vorteile wie weniger Abschriftsfehler, Erkennung einfacher E-Filing-Fehler, kürzere Verhandlungen und bessere Priorisierung dringender Fälle; sie sehen auch Chancen für besseren Zugang zur Justiz in entlegenen Bezirken.
Gleichzeitig gibt es erhebliche Bedenken: Der Delhi High Court wies 2023 ChatGPT-basierte Argumente zurück, weil große Sprachmodelle Zitate und Fakten erfinden können; in einem weiteren Fall erlaubte das Gericht Hauskäufern, eine Klage zurückzuziehen, nachdem Teile ihrer Eingaben als von ChatGPT erzeugt erkannt wurden. Kritiker warnen vor Undurchsichtigkeit der Modelle, Verzerrungen in Trainingsdaten, die Kaste, Geschlecht, Klasse oder Religion widerspiegeln können, und vor dem Hochladen sensibler Gerichtsakten in öffentliche Cloud-Tools. Der Digital Personal Data Protection Act, 2023 gilt für automatisierte Verarbeitung. Keralas KI-Politik behandelt KI als Verwaltungsinstrument, verbietet generative KI beim Verfassen von Urteilen und bei Vorhersagen von Ergebnissen und untersagt externe Plattformen, die das Hochladen vertraulicher Informationen verlangen. Der Oberste Gerichtshof hat ein KI-Komitee eingesetzt und arbeitet mit Instituten wie IIT Madras zusammen. Experten empfehlen Bias-Audits, verpflichtende Offenlegungen, bessere Infrastruktur, richterliche Schulung und Wege für Kläger, die Rolle der KI anzufechten. Richter betonen, KI solle als Assistent dienen und nicht die Verantwortung des Menschen ersetzen.
- Bias-Audits
- pflichtige Offenlegung beim KI-Einsatz
- bessere Infrastruktur und Schulung
Schwierige Wörter
- wandel — größere Veränderung in Gesellschaft oder Technik
- Sprachtechnologien — Technik, die Sprache automatisch verarbeitet und erkennt
- Gerichtsakten — schriftliche Unterlagen zu einem Gerichtsverfahren
- Präzedenzfälle — früheres Gerichtsurteil, das als Beispiel dient
- transkription — mündliche Sprache in geschriebenen Text umwandeln
- Verzerrungen — ungenaue oder einseitige Darstellung in Daten
- offenlegung — mitteilen, dass bestimmte Informationen verwendet werden
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Vorteile und Risiken des KI-Einsatzes in Gerichten erscheinen Ihnen am wichtigsten? Begründen Sie kurz mit Beispielen aus dem Text.
- Wie könnte die Justiz sensible Gerichtsakten schützen, wenn digitale Werkzeuge und Cloud-Dienste verwendet werden?
- Sollte KI Ihrer Meinung nach nur als Assistenz für Richter dienen oder auch mehr Verantwortung übernehmen? Erklären Sie Ihre Meinung.
Verwandte Artikel
Autorennennung verändert Bewertungen großer Sprachmodelle
Forscher der Universität Zürich zeigen, dass große Sprachmodelle einen Text anders bewerten, wenn ihnen der Autor genannt wird. Ohne Quellenangabe stimmen die Modelle über alle Themen zu über 90% überein; Nennung von Autorität enthüllt versteckte Vorurteile.
Victoria verabschiedet Vertrag mit First Peoples
Das Parlament von Victoria hat erstmals ein formelles Abkommen mit den indigenen First Peoples beschlossen. Das Gesetz schafft drei Gremien und einen Infrastruktur-Fonds, um mehr Kontrolle und bessere Ergebnisse in Gesundheit, Bildung und Wohnraum zu erreichen.
Staus und Verkehrslösungen in Asiens Städten
Staus in vielen asiatischen Städten erhöhen Luftverschmutzung und Kosten. Städte wie Delhi, Bangkok, Metro Manila und Jakarta ergreifen Maßnahmen: alte Autos entfernen, Busse modernisieren, Metro ausbauen und Technologien für bessere Mobilität nutzen.