Forscher der University of Utah stellten ein Rahmenmodell vor, um zu prüfen, wie viel psychotherapeutische Arbeit durch konversationelle KI und große Sprachmodelle (LLMs) automatisiert werden kann. Ziel ist, klar zu zeigen, was automatisiert wird und welche praktischen Fragen zur Nutzung und Verantwortung entstehen.
Das Modell unterscheidet vier Automatisierungsstufen von gering bis hoch: skriptgesteuerte Systeme, KI‑Bewertung von Sitzungen, KI‑Unterstützung für Therapeutinnen und Therapeuten und direkte KI‑Therapie. Die Forschenden warnen, dass einfache Notiz- oder Coaching‑Werkzeuge ein anderes Risikoprofil haben als autonome KI‑Therapie. Sie planen Kooperationen mit SafeUT, um Tools zur Auswertung von Kriseneinsätzen und für Feedback zu entwickeln.
Schwierige Wörter
- rahmenmodell — ein Modell für Planung oder Untersuchung
- konversationell — auf Gespräch oder Dialog mit Menschen bezogenkonversationelle
- sprachmodell — ein Computerprogramm, das Sprache verarbeitetSprachmodelle
- automatisieren — eine Arbeit von Maschinen erledigen lassenautomatisiert
- risikoprofil — Beschreibung, wie groß mögliche Gefahren sind
- kooperation — gemeinsame Arbeit von Personen oder GruppenKooperationen
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Würdest du einer KI in einer Therapie zuhören? Warum oder warum nicht?
- Welche Fragen zur Nutzung und Verantwortung von KI in der Therapie findest du wichtig?
- Hast du schon einmal Feedback oder Notizen von einem digitalen Tool bekommen? Erzähle kurz davon.
Verwandte Artikel
Gehirn zeigt, wie Menschen ihr Verhalten anpassen
Eine Studie der Universität Zürich untersucht, wie Gehirnaktivität Menschen dabei hilft, das Verhalten an anderen zu erkennen und darauf zu reagieren. Die Ergebnisse nennen die Forschenden einen neuronalen Fingerabdruck und könnten das Verständnis sozialer Störungen verbessern.
Erklärbare KI hilft Medizinstudierenden beim Nähen von Inzisionen
Forscherinnen und Forscher der Johns Hopkins University entwickelten eine erklärbare KI, die Medizinstudierende beim Nähen (Suturing) anleitet und sofortes, personalisiertes Feedback per Textnachricht liefert. Eine kleine Studie mit 12 Studierenden zeigte unterschiedliche Lernfortschritte.
Autorennennung verändert Bewertungen großer Sprachmodelle
Forscher der Universität Zürich zeigen, dass große Sprachmodelle einen Text anders bewerten, wenn ihnen der Autor genannt wird. Ohne Quellenangabe stimmen die Modelle über alle Themen zu über 90% überein; Nennung von Autorität enthüllt versteckte Vorurteile.