Tim peneliti yang dipimpin Zac Imel di University of Utah mempublikasikan kerangka kerja yang menilai seberapa jauh pekerjaan terapi dapat diautomasi oleh kecerdasan buatan percakapan dan model bahasa besar (LLM). Kerangka ini, dipublikasikan lebih dulu sebelum terbit di Current Directions in Psychological Science, membagi automasi menjadi empat kategori penting: sistem berskrip, AI yang menilai terapis, AI yang membantu terapis, dan AI yang memberikan terapi langsung.
Para peneliti mengevaluasi setiap kategori berdasarkan potensi kegunaan dan risikonya. Mereka menyoroti bahwa alat sederhana seperti pencatatan otomatis atau alat pelatihan punya profil risiko berbeda dibandingkan agen AI otonom. Selain itu, pengguna dan sistem kesehatan kadang tidak menyadari tingkat automasi sehingga muncul masalah persetujuan dan tanggung jawab jika terjadi kesalahan.
Tim berencana mengembangkan evaluasi untuk klinisi dan program pembimbingan, serta bermitra dengan SafeUT untuk membuat alat yang menilai sesi konselor krisis dan memberi umpan balik guna mempertahankan keterampilan.
Kata-kata sulit
- kerangka kerja — struktur atau rencana untuk menilai sesuatu
- menilai — memeriksa atau mengukur kualitas atau tingkat
- automasi — penggunaan mesin atau program menggantikan pekerjaan manusia
- model bahasa besar — sistem komputer yang menghasilkan dan memahami teks
- otonom — bekerja sendiri tanpa kontrol manusia langsung
- profil risiko — tingkat kemungkinan terjadinya efek negatif atau bahaya
- persetujuan — izin atau persetujuan seseorang sebelum suatu tindakan
- tanggung jawab — kewajiban untuk menerima konsekuensi atau menjelaskan kesalahan
Tips: arahkan kursor, fokus, atau ketuk kata yang disorot di dalam teks untuk melihat definisi singkat sambil membaca atau mendengarkan.
Pertanyaan diskusi
- Apakah Anda akan lebih percaya pada AI yang membantu terapis atau yang memberikan terapi langsung? Jelaskan alasan singkat.
- Bagaimana menurut Anda sistem kesehatan bisa memastikan persetujuan pasien saat menggunakan alat AI?
- Apa kekhawatiran terbesar jika agen AI otonom digunakan dalam terapi?
Artikel terkait
AI Mengubah Saran Setelah Pengungkapan Autisme
Studi Virginia Tech menemukan bahwa menyebut autisme mengubah nasihat model bahasa besar dan sering mengikuti stereotip umum. Peneliti memperingatkan bias dan mendorong pengembang membuat sistem lebih transparan agar pengguna dapat mengendalikan pengaruh identitas.
Jejak Otak untuk Menyesuaikan Perilaku dengan Orang Lain
Penelitian University of Zurich menunjukkan bagaimana aktivitas otak membantu orang menebak pikiran orang lain dan mengubah perilaku. Temuan ini menjelaskan proses "mentalisasi adaptif" dan dapat membantu memahami disabilitas sosial seperti autisme dan gangguan kepribadian.