Utah Üniversitesi araştırmacıları, konuşma tabanlı yapay zekâ ve özellikle büyük dil modelleri (LLM'ler) yaygınlaştıkça terapötik çalışmanın ne kadarının otomatikleştirilebileceğini değerlendirmek için bir çerçeve geliştirdi. Yayın öncesi olarak Current Directions in Psychological Science dergisinde paylaşılan çalışmanın başını Zac Imel çekti; Vivek Srikumar, Brent Kious ve diğer işbirlikçileri ile hazırlandı. Amaç, otomatikleştirilen unsurları netleştirmek ve pratik soruları dramatik tartışmalardan ayırmaktı.
Ekip dört otomasyon kategorisi tanımladı ve her birini fayda ile risk açısından değerlendirdi:
- A: Yazılı senaryolu sistemler ve karar ağaçlarını izleyen sohbet botları.
- B: Yapay zekânın terapist oturumlarını gözden geçirip geri bildirim veya puanlama yapması.
- C: Yapay zekânın insan terapiste müdahale, yönlendirici ifadeler veya söylem önerileriyle yardım etmesi.
- D: Yapay zekânın otonom olarak terapi sağlaması; bazen denetim altında olabilir.
Araştırmacılar, basit not alma veya terapist koçluğu araçlarının risklerinin tam otonom bir yapay zekâ terapistinkinden farklı olduğunu vurguluyor. Kullanıcılar ve sağlık kurumları hangi otomasyon düzeyinin kullanıldığını her zaman bilemeyebilir; bu da onam, sorumluluk ve hataların etkileri konusunda soru işaretleri oluşturuyor.
Ekip, klinisyen değerlendirmesi ve mentörlüğünü geliştirmek üzere çalışmalar planlıyor ve Utah eyaletinin metin tabanlı kriz hattı SafeUT ile ortaklık kurarak kriz danışmanlarının oturumlarını değerlendiren geri bildirim araçları geliştiriyor. Imel, eğitilmiş LLM'lerin önemli tedavi bileşenlerini hızla yakalayabildiğini ve ölçekli olarak zamanında geri bildirim sağlayabildiğini belirtiyor. Makalede ayrıca LLM'lerin bilgi uydurabileceği, önyargı taşıyabileceği, öngörülemez davranışlar sergileyebileceği ve kanıta dayalı psikoterapi tekniklerini her zaman takip etmeyebileceği uyarısı yapılmakta ve önce daha hafif, düşük riskli araçlarla başlanması önerilmektedir. Ek yazarlar University of Washington, University of Pennsylvania ve Alan Turing Enstitüsü'nden gelmektedir; Zac Imel ayrıca Lyssn şirketinin kurucu ortaklarındandır.
Zor kelimeler
- büyük dil modeli — metin verisiyle eğitilmiş geniş yapay zeka modelibüyük dil modelleri, LLM'ler
- otomatikleştirmek — insan işlerini makineye veya yazılıma bırakmakotomatikleştirilebileceğini
- otomasyon — teknik süreçleri otomatik yapan düzen veya sistem
- otonom — bağımsız olarak çalışan, kendi başına işleyen
- geri bildirim — yapılan işe ilişkin dönüt veya değerlendirme
- onam — bilerek verilen yazılı veya sözlü rıza
- önyargı — objektif olmayan, haksız veya yanlı görüş
- kanıta dayalı — bilimsel araştırma ve kanıtlara dayanan uygulama
İpucu: Türkçe metni okurken veya ses kaydını dinlerken, vurgulanan kelimelerin üzerine gel, odaklan ya da dokun; anında kısa tanımlar görünür.
Tartışma soruları
- Sizce terapide hangi otomasyon düzeyleri hasta güvenliği ve etik açısından kabul edilebilir? Neden?
- LLM'lerin bilgi uydurma veya önyargı risklerini azaltmak için hangi önlemler alınabilir? Örnek verin.
- Klinisyen değerlendirmesi ve yapay zekâ geri bildirim araçları nasıl dengelenmeli? Kısa bir çözüm önerisi yazın.
İlgili makaleler
Yapay zekâ cerrahi dikiş eğitiminde öğrencilere koçluk ediyor
Johns Hopkins’te geliştirilen yapay zekâ aracı, dikiş çalışırken öğrencilere anında kişiye özel geri bildirim veriyor. 12 tıp öğrencisiyle yapılan çalışmada deneyimler farklı çıktı ve ekip daha geniş erişim için evde kullanılacak bir sürüm planlıyor.