Ricercatori dell'Università dello Utah hanno creato un quadro per capire quanto lavoro terapeutico può essere automatizzato dalle intelligenze artificiali conversazionali. L'obiettivo è separare le questioni pratiche, come uso e responsabilità, dalla domanda se le macchine sostituiranno i terapeuti.
Il framework, pubblicato in anteprima su Current Directions in Psychological Science e guidato da Zac Imel, descrive quattro categorie: A sistemi con script, B IA che valuta sedute, C IA che assiste il terapeuta e D IA che fornisce terapia direttamente.
Gli autori valutano utilità e rischi e suggeriscono di iniziare con strumenti leggeri, mentre si studiano i benefici e i possibili danni.
Parole difficili
- ricercatore — persona che fa studi e ricerche scientificheRicercatori
- quadro — riassunto o schema per capire una situazione
- automatizzare — far fare un lavoro da una macchina o programmaautomatizzato
- intelligenza artificiale — computer o software che imita il pensiero umanointelligenze artificiali conversazionali
- seduta — incontro formale tra terapeuta e pazientesedute
- responsabilità — dovere di rispondere per azioni o decisioni
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Pensi che le IA possano aiutare i terapeuti? Perché?
- Preferiresti parlare con un IA o con un terapeuta umano? Spiega brevemente.
Articoli correlati
IA per la salute sessuale in America Latina
Gruppi e ricercatori in America Latina usano l'intelligenza artificiale per offrire informazioni sulla salute sessuale e riproduttiva a giovani e persone emarginate. Progetti in Perù e Argentina cercano di ridurre barriere linguistiche e stigma.
Tessuti intelligenti con MXene per salute ed energia
Una recensione esamina come i tessuti con MXene possano monitorare parametri vitali, avere proprietà antimicrobiche e raccogliere energia solare. Gli autori segnalano però problemi di ossidazione e di sostenibilità nella produzione.
L'IA può apprendere valori culturali osservando le persone
Uno studio della University of Washington ha testato se l'intelligenza artificiale può imparare valori culturali osservando il comportamento umano. Agenti addestrati su dati di due gruppi hanno mostrato differenze nel comportamento altruistico.
Molte persone che muoiono per suicidio non sono depresse
Uno studio genetico suggerisce che molte persone morte per suicidio non mostrano diagnosi di depressione o segnali noti. I ricercatori hanno confrontato dati genetici e avvertono che solo lo screening per la depressione potrebbe non bastare.