Un gruppo guidato da Zac Imel, con altri ricercatori, ha pubblicato un framework per valutare quanto della pratica terapeutica può essere automatizzata usando intelligenze artificiali conversazionali e grandi modelli linguistici (LLM). Il lavoro vuole chiarire cosa viene automatizzato e separare questioni pratiche sull'uso, il rischio e la responsabilità dalla domanda più ampia sulla sostituzione dei terapeuti.
Il quadro, pubblicato in anteprima su Current Directions in Psychological Science, distingue quattro categorie di automazione dal basso all'alto: A sistemi con script, B IA che valuta i terapeuti, C IA che assiste i terapeuti e D IA che fornisce direttamente la terapia, eventualmente sotto supervisione. Gli autori valutano per ciascuna categoria utilità potenziale e rischi diversi.
Il team collabora con SafeUT, la linea di crisi dello Utah, per sviluppare strumenti che valutino le sedute dei consulenti in crisi e forniscano feedback. Imel osserva che LLM addestrati possono catturare componenti chiave del trattamento e offrire riscontri rapidi, ma i ricercatori avvertono anche di rischi come la fabbricazione di informazioni, bias e comportamenti imprevedibili.
Parole difficili
- automatizzare — rendere automatico un processo fatto prima da personeautomatizzata
- valutare — giudicare o misurare la qualità o l'effettovalutino
- responsabilità — dovere di rispondere per azioni o decisioni
- supervisione — controllo o guida di un'attività da altri
- fabbricazione — creazione di qualcosa, spesso falsa o inventata
- bias — pregiudizio o distorsione nelle informazioni o dati
- sostituzione — azione di mettere qualcosa o qualcuno al posto
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Credi che l'IA che assiste i terapeuti possa essere utile? Spiega perché.
- Quale tra i rischi citati (fabbricazione, bias, comportamenti imprevedibili) ti sembra più preoccupante e perché?
Articoli correlati
Molte persone che muoiono per suicidio non sono depresse
Uno studio genetico suggerisce che molte persone morte per suicidio non mostrano diagnosi di depressione o segnali noti. I ricercatori hanno confrontato dati genetici e avvertono che solo lo screening per la depressione potrebbe non bastare.
Persone con disturbi mentali e rischio aumentato di lesioni
Uno studio su quasi 5 milioni di persone in Norvegia e Nuova Zelanda mostra che chi ha condizioni di salute mentale corre un rischio molto più alto di lesioni fisiche. Gli autori chiedono di unire prevenzione e cura mentale.
L'IA può apprendere valori culturali osservando le persone
Uno studio della University of Washington ha testato se l'intelligenza artificiale può imparare valori culturali osservando il comportamento umano. Agenti addestrati su dati di due gruppi hanno mostrato differenze nel comportamento altruistico.