Een team van onderzoekers van de University of Utah ontwikkelde een raamwerk om te bepalen in welke mate therapeutisch werk geautomatiseerd kan worden nu converserende kunstmatige intelligentie, en vooral grote taalmodellen (LLMs), gemeengoed beginnen te worden. Het raamwerk, vooraf gepubliceerd voor publicatie in Current Directions in Psychological Science, is geleid door Zac Imel en ontwikkeld met Vivek Srikumar, Brent Kious en andere samenwerkers.
Het team beschrijft vier categorieën langs een continuüm van laag naar hoog automatiseringsniveau: categorie A omvat gescripte systemen met vooraf geschreven inhoud en besluitbomen; categorie B laat AI therapeuten evalueren en feedback of scores geven; categorie C gebruikt AI als assistent die interventies of formuleringen voorstelt terwijl een mens de behandeling uitvoert; en categorie D betreft autonome agenten die direct therapie leveren, mogelijk onder toezicht.
De onderzoekers beoordeelden elke categorie op potentiële bruikbaarheid en risico, en benadrukken dat eenvoudige hulpmiddelen een ander risicoprofiel hebben dan autonome AI-therapeuten. Patiënten en zorgsystemen weten niet altijd welk automatiseringsniveau wordt gebruikt, wat vragen oproept over toestemming, verantwoordelijkheid en de gevolgen van fouten. Het team werkt met SafeUT aan tools die crisiscounselingsessies evalueren en feedback geven om vaardigheden te behouden en te ontwikkelen.
Imel stelt dat getrainde LLMs kerncomponenten van behandelingen snel kunnen vastleggen en tijdige feedback kunnen leveren, iets wat huidige methoden zelden op schaal doen. Tegelijk waarschuwen de onderzoekers dat LLMs kunnen verzinnen, vooroordelen kunnen bevatten en onvoorspelbaar kunnen handelen, en niet per se evidence-based psychotherapie volgen. Het artikel adviseert te beginnen met lichtere, laag-risico tools terwijl baten en schade verder worden bestudeerd. Extra coauteurs komen van de University of Washington, University of Pennsylvania en het Alan Turing Institute. Zac Imel is medeoprichter van Lyssn.
Moeilijke woorden
- raamwerk — structuur of plan om iets te analyseren
- kunstmatige intelligentie — computersystemen die mensachtige taken uitvoeren
- grote taalmodellen — modellen die grote hoeveelheden tekst verwerken
- risicoprofiel — omschrijving van mogelijke gevaren en hun ernst
- agent — entiteit of programma dat zelfstandig kan handelenagenten
- vooroordeel — negatieve of bevooroordeelde mening over mensenvooroordelen
- toestemming — instemming of goedkeuring van een betrokken persoon
- coauteur — iemand die samen aan een wetenschappelijk artikel schrijftcoauteurs
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Welke voordelen en risico's zie jij bij het gebruik van AI als assistent in therapie? Geef voorbeelden en redenen.
- Hoe zouden patiënten geïnformeerd en betrokken moeten worden over welk automatiseringsniveau in hun behandeling wordt gebruikt?
- Wanneer zou volgens jou een autonome AI-therapeut acceptabel zijn, en welke waarborgen zouden dan verplicht moeten zijn?
Gerelateerde artikelen
Saite: een YouTube-kanaal voor geestelijke gezondheid
Na de staatsgreep in februari 2021 ontstond Exile Hub. Lucas, een balling uit Mandalay, startte in oktober 2022 het YouTube-kanaal Saite om jonge Myanmarezen te steunen bij geestelijke gezondheid. Het kanaal heeft bijna 9,000 abonnees.
AI-audiooverzichten maken onderzoek toegankelijk, maar bevatten fouten
Onderzoekers testten Google’s NotebookLM op drie artikelen over vulkanisme op Mars. De audio’s waren begrijpelijk en boeiend, maar bevatten herhaalde onnauwkeurigheden; de onderzoekers adviseren altijd het originele onderzoek te lezen.
Waarom taalmodellen moeite hebben met vermenigvuldigen
Onderzoekers van de University of Chicago en partners onderzochten waarom grote taalmodellen twee viercijferige getallen slecht vermenigvuldigen. Een nieuwe trainingsmethode (ICoT) liet modellen tussentijdse waarden onthouden en verbeterde de nauwkeurigheid sterk.