Indien modernisiert Gerichte mit KI und digitalen WerkzeugenCEFR B2
5. Dez. 2025
Adaptiert nach Sakkcham Singh Parmaar, Global Voices • CC BY 3.0
Foto von Rishu Bhosale, Unsplash
Indiens Justiz steht vor zwei Herausforderungen: einem enormen Rückstand an Verfahren und dem Einsatz neuer digitaler Technologien. Der digitale Wandel begann 2007 mit dem e-Courts-Programm, das E-Filing, digitale Verfahrenslisten und Online-Urteile einführte. In Phase III liegt der Schwerpunkt auf Machine Learning und Sprachtechnologien, die direkt auf digitalisierte Gerichtsakten angewendet werden sollen.
Eine zentrale Neuerung ist SUPACE (Supreme Court Portal for Assistance in Courts Efficiency). Die Plattform identifiziert Fakten, schlägt Präzedenzfälle vor und erstellt Entwurfsgliederungen, sie trifft jedoch keine Entscheidungen. Der Oberste Gerichtshof entwickelte SUVAS für Übersetzungen aus dem Englischen, und einige High Courts testen Werkzeuge für Regionalsprache-Übersetzungen. Automatisierte Transkription wurde in Verfassungsangelegenheiten eingeführt und liefert seit 2023 nahezu in Echtzeit durchsuchbare Texte.
Der High Court von Kerala ordnete an, dass ab 1. November 2025 das KI-gestützte Sprach-zu-Text-Tool Adalat.AI zur Aufnahme von Zeugenaussagen verwendet wird; das Tool stammt von einem Start-up mit Forschungsbeziehungen zu Harvard und MIT. Bei Ausfällen dürfen Richter alternative, von der IT-Direktion geprüfte Plattformen nutzen. Befürworter nennen Vorteile wie weniger Abschriftsfehler, Erkennung einfacher E-Filing-Fehler, kürzere Verhandlungen und bessere Priorisierung dringender Fälle; sie sehen auch Chancen für besseren Zugang zur Justiz in entlegenen Bezirken.
Gleichzeitig gibt es erhebliche Bedenken: Der Delhi High Court wies 2023 ChatGPT-basierte Argumente zurück, weil große Sprachmodelle Zitate und Fakten erfinden können; in einem weiteren Fall erlaubte das Gericht Hauskäufern, eine Klage zurückzuziehen, nachdem Teile ihrer Eingaben als von ChatGPT erzeugt erkannt wurden. Kritiker warnen vor Undurchsichtigkeit der Modelle, Verzerrungen in Trainingsdaten, die Kaste, Geschlecht, Klasse oder Religion widerspiegeln können, und vor dem Hochladen sensibler Gerichtsakten in öffentliche Cloud-Tools. Der Digital Personal Data Protection Act, 2023 gilt für automatisierte Verarbeitung. Keralas KI-Politik behandelt KI als Verwaltungsinstrument, verbietet generative KI beim Verfassen von Urteilen und bei Vorhersagen von Ergebnissen und untersagt externe Plattformen, die das Hochladen vertraulicher Informationen verlangen. Der Oberste Gerichtshof hat ein KI-Komitee eingesetzt und arbeitet mit Instituten wie IIT Madras zusammen. Experten empfehlen Bias-Audits, verpflichtende Offenlegungen, bessere Infrastruktur, richterliche Schulung und Wege für Kläger, die Rolle der KI anzufechten. Richter betonen, KI solle als Assistent dienen und nicht die Verantwortung des Menschen ersetzen.
- Bias-Audits
- pflichtige Offenlegung beim KI-Einsatz
- bessere Infrastruktur und Schulung
Schwierige Wörter
- wandel — größere Veränderung in Gesellschaft oder Technik
- Sprachtechnologien — Technik, die Sprache automatisch verarbeitet und erkennt
- Gerichtsakten — schriftliche Unterlagen zu einem Gerichtsverfahren
- Präzedenzfälle — früheres Gerichtsurteil, das als Beispiel dient
- transkription — mündliche Sprache in geschriebenen Text umwandeln
- Verzerrungen — ungenaue oder einseitige Darstellung in Daten
- offenlegung — mitteilen, dass bestimmte Informationen verwendet werden
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Vorteile und Risiken des KI-Einsatzes in Gerichten erscheinen Ihnen am wichtigsten? Begründen Sie kurz mit Beispielen aus dem Text.
- Wie könnte die Justiz sensible Gerichtsakten schützen, wenn digitale Werkzeuge und Cloud-Dienste verwendet werden?
- Sollte KI Ihrer Meinung nach nur als Assistenz für Richter dienen oder auch mehr Verantwortung übernehmen? Erklären Sie Ihre Meinung.
Verwandte Artikel
Bot-Angriffe auf Aktivisten und Medien im westlichen Balkan
Im November 2025 richteten koordinierte Bot-Operationen sich gegen Aktivisten- und Medienaccounts auf Instagram im westlichen Balkan. Berichte von Meta.mk am November 16 und November 23, 2025 beschreiben Kampagnen, die automatische Moderationsregeln ausnutzten.
Pakistan: Menschenrechtsanwälte wegen Posts in sozialen Medien verurteilt
Am 24. Januar 2026 verurteilte ein Gericht in Pakistan zwei Menschenrechtsanwälte zu jeweils 17 Jahren Haft. Die Anklage bezieht sich auf Social‑Media‑Beiträge über mutmaßliche Missbräuche durch das Militär; das Urteil löste internationale Kritik aus.
Smarte Kopfhörer isolieren Stimmen im Lärm
Forscher entwickelten smarte Kopfhörer mit KI, die im Gespräch den Turn‑Taking‑Rhythmus erkennen und Stimmen anderer Personen isolieren. Der Prototyp lief auf handelsüblicher Hardware, wurde in Suzhou vorgestellt und der Quellcode ist verfügbar.
Gehirnähnliches Gewebe ohne Tierstoffe hergestellt
Forscher an der University of California, Riverside erzeugten gehirnähnliches Gewebe ohne tierische Ausgangsstoffe. Das neue Gerüst aus PEG erlaubt Zellen zu wachsen und soll Forschung zu Hirnkrankheiten und Medikamententests verbessern.
Gericht entscheidet über Schutz der Aravalli-Hügel
Der Oberste Gerichtshof änderte die Definition der Aravalli-Hügel. Nur Hügel, die mindestens 100 Meter über dem Gelände aufragen, sollen langfristig geschützt werden; neue Bergbaulizenzen wurden vorerst ausgesetzt. Die Entscheidung löste breite Proteste aus.