Ricercatori dell'Università dello Utah, guidati da Zac Imel e sviluppati con Vivek Srikumar, Brent Kious e altri, hanno proposto un quadro di riferimento per valutare quanto del lavoro terapeutico potrebbe essere automatizzato man mano che le intelligenze artificiali conversazionali e i grandi modelli linguistici (LLM) diventano più diffusi. Pubblicato in anteprima su Current Directions in Psychological Science, il framework cerca di separare le considerazioni pratiche sull'uso, il rischio e la responsabilità dalla domanda sulla possibile sostituzione dei terapeuti.
Il gruppo descrive quattro categorie di automazione disposte su un continuum da bassa ad alta automazione: A sistemi con script forniti da esseri umani; B IA che esamina le sedute e valuta i terapeuti; C IA che assiste il terapeuta suggerendo interventi o formulazioni; D IA che fornisce direttamente la terapia tramite un agente autonomo, anche se talvolta sotto supervisione. Per ogni categoria gli autori discutono utilità potenziale e rischi, osservando che strumenti semplici come app per prendere appunti o per consulenza comportano rischi diversi rispetto a un terapista IA completamente autonomo.
Il team collabora con SafeUT, la linea di crisi testuale dello stato dello Utah, per sviluppare strumenti che valutino le sedute dei consulenti in crisi e diano feedback utili a mantenere e sviluppare competenze cliniche. Imel sottolinea che LLM addestrati possono cogliere rapidamente componenti chiave del trattamento e offrire riscontri tempestivi, cosa che i metodi attuali raramente realizzano su larga scala. I ricercatori però avvertono che gli LLM usati direttamente per il counselling possono fabbricare informazioni, codificare bias e comportarsi in modo imprevedibile e che non seguono necessariamente tecniche di psicoterapia basate sull'evidenza. L'articolo suggerisce di iniziare con strumenti a basso rischio mentre si studiano benefici e danni. Altri coautori provengono dall'University of Washington, dall'University of Pennsylvania e dall'Alan Turing Institute; Zac Imel è cofondatore di Lyssn.
Parole difficili
- automazione — Uso di macchine o software che svolgono compiti
- continuum — Serie continua di livelli o gradi progressivi
- supervisione — Controllo o guida professionale di un'attività
- fabbricare — Creare o inventare qualcosa spesso falso
- evidenza — Dati o risultati che supportano una pratica
- valutare — Giudicare l'importanza o la qualità di qualcosavalutino
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Quali vantaggi e quali rischi pensi siano più importanti da valutare prima di usare LLM nella terapia?
- Come si potrebbero integrare strumenti a basso rischio in un servizio di supporto psicologico locale?
- Quali misure di responsabilità e supervisione sarebbero necessarie se un'IA iniziasse a dare feedback sui terapeuti?
Articoli correlati
L'IA può apprendere valori culturali osservando le persone
Uno studio della University of Washington ha testato se l'intelligenza artificiale può imparare valori culturali osservando il comportamento umano. Agenti addestrati su dati di due gruppi hanno mostrato differenze nel comportamento altruistico.
Il cervello predice parole usando gruppi grammaticali
Una ricerca pubblicata su Nature Neuroscience mostra che il cervello anticipa le parole considerando gruppi grammaticali (costituenti), non solo la singola parola successiva. Lo studio ha usato MEG, test Cloze e dati in mandarino e inglese.
Dire di essere autistico cambia i consigli dell'IA
Uno studio della Virginia Tech, presentato alla conferenza CHI, mostra che rivelare l'autismo modifica i suggerimenti dei grandi modelli linguistici, spesso seguendo stereotipi comuni. I ricercatori chiedono maggiore trasparenza nei sistemi IA.