Peneliti di University of Utah mengembangkan kerangka kerja untuk menilai sejauh mana terapi bisa diautomasi oleh kecerdasan buatan percakapan, termasuk model bahasa besar (LLM). Kerangka ini membagi automasi menjadi empat kategori, dari sistem berskrip sampai AI yang memberikan terapi langsung.
Tim juga menilai manfaat dan risiko tiap kategori. Mereka bermitra dengan layanan krisis berbasis teks untuk membuat alat penilai sesi dan umpan balik. Peneliti memperingatkan bahwa AI bisa membuat kesalahan, mengandung bias, dan tidak selalu mengikuti teknik terapi berbasis bukti.
Kata-kata sulit
- peneliti — orang yang melakukan studi atau penelitian
- kerangka kerja — rangka atau sistem ide untuk menjelaskan sesuatu
- menilai — memeriksa atau mengukur nilai atau kualitas
- kecerdasan buatan percakapan — program komputer yang bisa bercakap dengan manusia
- bias — pendapat atau hasil yang tidak adil atau miring
- berbasis bukti — menggunakan data atau penelitian sebagai dasar keputusan
Tips: arahkan kursor, fokus, atau ketuk kata yang disorot di dalam teks untuk melihat definisi singkat sambil membaca atau mendengarkan.
Pertanyaan diskusi
- Apakah menurutmu AI yang memberi terapi langsung aman? Mengapa atau mengapa tidak?
- Bagaimana menurutmu alat penilai sesi bisa membantu layanan krisis berbasis teks?
Artikel terkait
AI Mengubah Saran Setelah Pengungkapan Autisme
Studi Virginia Tech menemukan bahwa menyebut autisme mengubah nasihat model bahasa besar dan sering mengikuti stereotip umum. Peneliti memperingatkan bias dan mendorong pengembang membuat sistem lebih transparan agar pengguna dapat mengendalikan pengaruh identitas.
Jejak Otak untuk Menyesuaikan Perilaku dengan Orang Lain
Penelitian University of Zurich menunjukkan bagaimana aktivitas otak membantu orang menebak pikiran orang lain dan mengubah perilaku. Temuan ini menjelaskan proses "mentalisasi adaptif" dan dapat membantu memahami disabilitas sosial seperti autisme dan gangguan kepribadian.