LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
Un quadro per l'automazione della terapia con IA — Livello B2 — two hands touching each other in front of a blue background

Un quadro per l'automazione della terapia con IACEFR B2

21 apr 2026

Livello B2 – Intermedio-avanzato
5 min
297 parole

Ricercatori dell'Università dello Utah, guidati da Zac Imel e sviluppati con Vivek Srikumar, Brent Kious e altri, hanno proposto un quadro di riferimento per valutare quanto del lavoro terapeutico potrebbe essere automatizzato man mano che le intelligenze artificiali conversazionali e i grandi modelli linguistici (LLM) diventano più diffusi. Pubblicato in anteprima su Current Directions in Psychological Science, il framework cerca di separare le considerazioni pratiche sull'uso, il rischio e la responsabilità dalla domanda sulla possibile sostituzione dei terapeuti.

Il gruppo descrive quattro categorie di automazione disposte su un continuum da bassa ad alta automazione: A sistemi con script forniti da esseri umani; B IA che esamina le sedute e valuta i terapeuti; C IA che assiste il terapeuta suggerendo interventi o formulazioni; D IA che fornisce direttamente la terapia tramite un agente autonomo, anche se talvolta sotto supervisione. Per ogni categoria gli autori discutono utilità potenziale e rischi, osservando che strumenti semplici come app per prendere appunti o per consulenza comportano rischi diversi rispetto a un terapista IA completamente autonomo.

Il team collabora con SafeUT, la linea di crisi testuale dello stato dello Utah, per sviluppare strumenti che valutino le sedute dei consulenti in crisi e diano feedback utili a mantenere e sviluppare competenze cliniche. Imel sottolinea che LLM addestrati possono cogliere rapidamente componenti chiave del trattamento e offrire riscontri tempestivi, cosa che i metodi attuali raramente realizzano su larga scala. I ricercatori però avvertono che gli LLM usati direttamente per il counselling possono fabbricare informazioni, codificare bias e comportarsi in modo imprevedibile e che non seguono necessariamente tecniche di psicoterapia basate sull'evidenza. L'articolo suggerisce di iniziare con strumenti a basso rischio mentre si studiano benefici e danni. Altri coautori provengono dall'University of Washington, dall'University of Pennsylvania e dall'Alan Turing Institute; Zac Imel è cofondatore di Lyssn.

Parole difficili

  • automazioneUso di macchine o software che svolgono compiti
  • continuumSerie continua di livelli o gradi progressivi
  • supervisioneControllo o guida professionale di un'attività
  • fabbricareCreare o inventare qualcosa spesso falso
  • evidenzaDati o risultati che supportano una pratica
  • valutareGiudicare l'importanza o la qualità di qualcosa
    valutino

Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.

Domande di discussione

  • Quali vantaggi e quali rischi pensi siano più importanti da valutare prima di usare LLM nella terapia?
  • Come si potrebbero integrare strumenti a basso rischio in un servizio di supporto psicologico locale?
  • Quali misure di responsabilità e supervisione sarebbero necessarie se un'IA iniziasse a dare feedback sui terapeuti?

Articoli correlati