Ein Forschungsteam der University of Utah hat ein Rahmenmodell entwickelt, das beurteilen soll, welche Teile psychotherapeutischer Arbeit durch konversationelle künstliche Intelligenz, insbesondere durch große Sprachmodelle (LLMs), automatisiert werden könnten. Das Modell erschien vorab zur Veröffentlichung in Current Directions in Psychological Science und wurde von Zac Imel geleitet; Coautorinnen und Coautoren sind unter anderem Vivek Srikumar, Brent Kious sowie Mitarbeitende weiterer Institutionen.
Das Team beschreibt vier Automatisierungskategorien auf einem Kontinuum von geringer bis hoher Automation: Kategorie A umfasst skriptgesteuerte Systeme mit vorformulierten Inhalten und Entscheidungsbäumen; B bezeichnet KI, die Sitzungen sichtet und Feedback oder Bewertungen liefert; C meint KI, die Therapeutinnen und Therapeuten Vorschläge zu Interventionen, Hinweisen oder Formulierungen macht; D steht für autonome Agenten, die unmittelbar mit Patientinnen und Patienten interagieren können, gegebenenfalls unter Aufsicht.
Die Forschenden bewerteten Nützlichkeit und Risiken jeder Kategorie. Sie weisen darauf hin, dass einfache Notiz‑ oder Coaching‑Werkzeuge ein anderes Risikoprofil haben als vollständig autonome KI‑Therapie. Da Nutzende und Gesundheitssysteme nicht immer wissen, welches Automatisierungsniveau eingesetzt wird, entstehen Fragen zu Einwilligung, Verantwortung und Folgen von Fehlern. In Kooperation mit SafeUT sollen Werkzeuge zur Auswertung von Kriseneinsätzen und zur Rückmeldung an Beraterinnen entwickelt werden. Die Autorinnen empfehlen, mit leichteren, risikoärmeren Werkzeugen zu beginnen und Nutzen sowie Schäden systematisch zu untersuchen, da LLMs Informationen erfinden, Vorurteile kodieren und unvorhersehbar handeln können.
Schwierige Wörter
- rahmenmodell — ein strukturiertes Konzept zur Analyse eines Problems
- konversationelle künstliche intelligenz — Computerprogramme, die natürliche Gespräche mit Menschen führen
- automatisierungskategorie — Stufe, die zeigt, wie viel Arbeit von Maschinen erledigt wirdAutomatisierungskategorien
- entscheidungsbaum — eine Abfolge von Regeln zur Auswahl von HandlungenEntscheidungsbäumen
- agent — ein Programm, das selbstständig Aufgaben ausführtAgenten
- einwilligung — Zustimmung einer Person vor einer Handlung
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Vorteile und Risiken sehen Sie persönlich bei der Nutzung konversationeller KI in der Psychotherapie?
- Wie sollte die Einwilligung von Patientinnen geregelt werden, wenn unterschiedliche Automatisierungsstufen eingesetzt werden?
- Welche Kriterien wären wichtig, um zu entscheiden, ob ein Werkzeug ausreichend risikoarm für den Einsatz ist?
Verwandte Artikel
Blei in der Kindheit steht mit späteren Depressionssymptomen in Verbindung
Eine Studie in JAMA Network Open fand, dass höhere Bleikonzentrationen im Blut in der Kindheit mit mehr Depressionssymptomen in der Adoleszenz verbunden waren. Messwerte um acht Jahre schienen besonders bedeutsam.
Smarte Kopfhörer isolieren Stimmen im Lärm
Forscher entwickelten smarte Kopfhörer mit KI, die im Gespräch den Turn‑Taking‑Rhythmus erkennen und Stimmen anderer Personen isolieren. Der Prototyp lief auf handelsüblicher Hardware, wurde in Suzhou vorgestellt und der Quellcode ist verfügbar.
KI-Audio fasst Mars-Studien zusammen – nützlich, aber fehleranfällig
Google NotebookLM erstellt podcastähnliche Audio‑Überblicke wissenschaftlicher Arbeiten zu Vulkanismus auf dem Mars. Die Audios sind ansprechend und lehrreich, enthalten aber wiederkehrende Fehler; die Forschenden raten, stets das Originalpapier zu prüfen.
Warum KI voreingenommen ist
Forscher der University of Texas at Austin untersuchten problematische Algorithmen und fanden drei Hauptursachen für KI-Bias: fehlende klare Entscheidungsgrundlagen, vereinfachte Modelle der Realität und fehlende Vielfalt bei den Entwicklern. Mehr als bessere Genauigkeit ist nötig.