Peneliti di University of Utah, dipimpin Zac Imel bersama Vivek Srikumar, Brent Kious, dan kolaborator lain, mengembangkan kerangka kerja untuk menilai sejauh mana pekerjaan terapi dapat diautomasi oleh kecerdasan buatan percakapan, terutama model bahasa besar (LLM). Makalah yang dipublikasikan lebih dulu sebelum terbit di Current Directions in Psychological Science memperkenalkan empat kategori automasi dan menilai kegunaan serta risikonya.
Kategori automasi adalah:
- Kategori A: sistem berskrip dengan konten yang ditulis manusia.
- Kategori B: AI yang menilai sesi terapis dan memberi umpan balik.
- Kategori C: AI yang membantu terapis dengan saran intervensi.
- Kategori D: AI otonom yang memberi terapi langsung kepada pasien.
Tim menekankan bahwa alat sederhana seperti pencatatan otomatis atau alat pelatihan memiliki risiko berbeda dibanding agen otonom. Mereka juga mencatat bahwa pengguna dan penyedia layanan kadang tidak menyadari tingkat automasi, sehingga timbul pertanyaan tentang persetujuan, tanggung jawab, dan dampak kesalahan. Untuk itu, tim bermitra dengan SafeUT—layanan krisis teks di Utah—untuk membuat alat penilaian sesi konselor dan memberi umpan balik yang membantu mempertahankan dan mengembangkan keterampilan.
Peneliti memperingatkan risiko penggunaan LLM langsung untuk konseling, termasuk kemungkinan memalsukan informasi, mengandung bias, berperilaku tak terduga, dan tidak selalu mengikuti teknik psikoterapi berbasis bukti. Makalah menyarankan memulai dengan alat ringan dan berisiko rendah sambil mengkaji manfaat serta bahaya. Penulis tambahan berasal dari University of Washington, University of Pennsylvania, dan Alan Turing Institute; Zac Imel juga merupakan salah satu pendiri Lyssn.
Kata-kata sulit
- kerangka kerja — struktur atau rencana untuk menilai sesuatu
- automasi — penggantian tugas manusia dengan sistem mesin
- kecerdasan buatan — sistem komputer yang meniru kemampuan manusia
- model bahasa besar — program besar yang memproses dan menghasilkan teksmodel bahasa besar (LLM)
- otonom — bekerja sendiri tanpa kontrol manusia langsung
- umpan balik — informasi tentang hasil atau kinerja
- risiko — kemungkinan terjadinya hal buruk atau masalah
- psikoterapi berbasis bukti — terapi yang didukung oleh penelitian ilmiah
- memalsukan — membuat sesuatu seolah-olah asli atau benar
- tak terduga — tidak bisa diprediksi atau tidak terencana
Tips: arahkan kursor, fokus, atau ketuk kata yang disorot di dalam teks untuk melihat definisi singkat sambil membaca atau mendengarkan.
Pertanyaan diskusi
- Menurut Anda, apa keuntungan dan bahaya utama jika AI mulai membantu pekerjaan terapi seperti yang disebutkan dalam artikel?
- Bagaimana sebaiknya penyedia layanan menjelaskan tingkat automasi kepada klien agar persetujuan menjadi jelas?
- Alat ringan seperti pencatatan otomatis memiliki risiko berbeda dibanding agen otonom. Berikan contoh bagaimana perbedaan risiko itu bisa muncul.
Artikel terkait
Pakaian Pintar dengan MXenes untuk Pantau dan Lindungi Kesehatan
Penelitian menelaah penggunaan MXenes — bahan tipis berbasis logam — pada tekstil pintar untuk memantau tanda vital, melawan bakteri, dan menyimpan energi matahari. Ulasan menyorot potensi aplikasi dan batasan produksinya.
Jejak Otak untuk Menyesuaikan Perilaku dengan Orang Lain
Penelitian University of Zurich menunjukkan bagaimana aktivitas otak membantu orang menebak pikiran orang lain dan mengubah perilaku. Temuan ini menjelaskan proses "mentalisasi adaptif" dan dapat membantu memahami disabilitas sosial seperti autisme dan gangguan kepribadian.
AI Mempelajari Nilai Budaya dari Perilaku Manusia
Penelitian University of Washington menunjukkan AI yang dilatih mengamati perilaku manusia dapat meniru nilai budaya. Eksperimen permainan dan tes donasi menunjukkan agen yang dilatih pada data kelompok Latino bertindak lebih tolong‑menolong.