Onderzoekers van de University of Utah hebben een raamwerk ontwikkeld om te beoordelen in welke mate therapeutisch werk geautomatiseerd kan worden naarmate converserende AI en grote taalmodellen (LLMs) gangbaar worden. Het raamwerk, vooraf gepubliceerd voor publicatie in Current Directions in Psychological Science, is geleid door Zac Imel en ontwikkeld met collega’s.
Het team verdeelt automatisering in vier categorieën: gescripte systemen; AI die therapeuten evalueert; AI die therapeuten assisteert; en AI die direct therapie levert. Ze beoordeelden elke categorie op potentiële bruikbaarheid en op risico's, en wijzen erop dat eenvoudige notitiehulpmiddelen een ander risicoprofiel hebben dan volledig autonome AI-therapie.
De onderzoekers werken samen met SafeUT om tools te ontwikkelen die crisiscounselingsessies evalueren en feedback geven. Zij waarschuwen dat LLMs kunnen verzinnen, vooroordelen kunnen bevatten en niet altijd evidence-based werken, en adviseren te beginnen met lichtere, laag-risico tools.
Moeilijke woorden
- raamwerk — Structuur om iets systematisch te beoordelen
- automatiseren — Een taak door machines laten uitvoerengeautomatiseerd
- therapeutisch — Gerelateerd aan behandeling of therapie
- gescripte systemen — Systemen die volgens vaste scripts werken
- evalueren — Iets onderzoeken en een oordeel gevenevalueert
- assisteren — Iemand helpen bij een taak of werkassisteert
- autonoom — Zelfstandig werken zonder menselijke leidingautonome
- vooroordeel — Een oneerlijke mening over een groepvooroordelen
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Zou je vertrouwen op AI die therapeuten assisteert in een echte therapiesituatie? Waarom wel of niet?
- Wat vind je van het advies om te beginnen met lichtere, laag-risico tools in de zorg?
- Welke problemen kunnen vooroordelen in AI volgens jou veroorzaken tijdens counseling of therapie?