Một nhóm nghiên cứu tại University of Utah, do Zac Imel dẫn đầu và phát triển cùng Vivek Srikumar, Brent Kious và các cộng tác viên, đã công bố trước một khuôn khổ nhằm đánh giá mức độ công việc trị liệu có thể được tự động hóa khi các hệ thống trò chuyện dựa trên trí tuệ nhân tạo và mô hình ngôn ngữ lớn ngày càng phổ biến. Khuôn khổ tìm cách tách câu hỏi thực tiễn về việc sử dụng, rủi ro và trách nhiệm khỏi câu hỏi rộng hơn là liệu máy móc có thay thế nhà trị liệu hay không.
Khuôn khổ phân bốn hạng mục theo một phổ: A — hệ thống theo kịch bản với nội dung do con người soạn sẵn; B — AI đánh giá phiên và đưa phản hồi hoặc xếp hạng; C — AI hỗ trợ nhà trị liệu bằng gợi ý can thiệp, câu hỏi hoặc cách diễn đạt trong khi con người cung cấp chăm sóc; D — AI trực tiếp cung cấp trị liệu như một tác nhân tự trị, có thể có giám sát. Nhóm đánh giá từng hạng mục về tính hữu ích và rủi ro, và nhấn mạnh rằng người dùng hoặc hệ thống y tế đôi khi không biết mức tự động hóa đang dùng, điều này làm phát sinh vấn đề về sự đồng ý, trách nhiệm và hậu quả khi xảy ra sai sót.
Nhóm dự định phát triển công cụ đánh giá và cố vấn cho chuyên gia lâm sàng và đang hợp tác với SafeUT, đường dây khủng hoảng nhắn tin toàn bang Utah, để đánh giá các phiên của tư vấn viên khủng hoảng và cung cấp phản hồi nhằm duy trì và phát triển kỹ năng. Imel cho biết các LLM được đào tạo có thể nắm bắt nhanh các thành phần điều trị chính và đưa phản hồi kịp thời, điều mà các phương pháp hiện nay hiếm khi làm ở quy mô lớn. Đồng thời, các nhà nghiên cứu cảnh báo rằng LLM dùng trực tiếp để tư vấn có nguy cơ bịa đặt thông tin, mã hóa thành kiến và hành xử không lường trước, và không nhất thiết tuân theo kỹ thuật trị liệu dựa trên bằng chứng. Bài báo đề xuất bắt đầu bằng các công cụ nhẹ hơn, rủi ro thấp hơn, trong khi tiếp tục nghiên cứu lợi ích và tác hại. Các đồng tác giả còn đến từ University of Washington, University of Pennsylvania và Alan Turing Institute; Zac Imel là đồng sáng lập Lyssn.
Từ khó
- khuôn khổ — cấu trúc hoặc phương pháp tổ chức ý tưởng
- tự động hóa — sử dụng máy móc làm công việc của con người
- mô hình ngôn ngữ lớn — mạng máy tính học tạo và hiểu ngôn ngữ
- hạng mục — một nhóm hoặc loại được phân chia
- giám sát — quan sát và kiểm soát hoạt động hoặc hành vi
- trách nhiệm — nghĩa vụ phải chịu và giải thích kết quả
- bịa đặt — tạo ra thông tin sai sự thật cố ý
- thành kiến — định kiến hoặc suy nghĩ không công bằng
Mẹo: di chuột, dùng phím Tab hoặc chạm vào các từ được tô sáng trong bài để xem định nghĩa nhanh ngay khi bạn đọc hoặc nghe.
Câu hỏi thảo luận
- Theo bạn, lợi ích chính khi dùng AI hỗ trợ nhà trị liệu (hạng mục C) là gì? Nêu ít nhất một lý do.
- Bài báo đề xuất bắt đầu bằng các công cụ nhẹ hơn, rủi ro thấp hơn. Bạn có đồng ý không? Vì sao?
- Nếu người dùng hoặc hệ thống không biết mức độ tự động hóa đang dùng, điều gì có thể xảy ra về sự đồng ý và trách nhiệm? Hãy giải thích.