📖+40 XP
🎧+25 XP
✅+45 XP
等级 B2 – 中高级CEFR B2
5 分钟
267 字
来自犹他大学的研究团队建立了一个系统化框架,用以评估在对话式人工智能日益普及的背景下,心理治疗工作有哪些环节可以被自动化,以及相应的使用、风险与责任问题。该框架已提前发布在Current Directions in Psychological Science,作者由Zac Imel牵头,合著者还包括Vivek Srikumar、Brent Kious,其他合著者来自University of Washington、University of Pennsylvania和Alan Turing Institute。
研究把自动化分为四类:A类为脚本化系统(事先撰写内容,按决策树呈现);B类为AI审查并评分治疗师;C类为AI在人工治疗中提供建议或措辞提示;D类为AI直接提供治疗,作为自主代理与患者互动。团队对每一类的潜在有用性与风险进行了比较,强调像简单记笔记或教练工具与完全自主的AI治疗师在风险上有显著差别。
研究者指出,用户和医疗系统有时可能不知道自己正在使用哪个自动化级别,这会引发知情同意、责任归属以及错误后果的疑问。团队计划与SafeUT合作,开发能评估危机咨询员会话并提供反馈的工具,以帮助维持和发展技能。作者警告说,直接用于咨询的训练型语言模型可能编造信息、编码偏见并表现出不可预测性,且不一定遵循循证治疗技术,因此论文建议在研究利益与危害的同时,先从较轻的低风险工具入手。
难词
- 框架 — 组织概念与步骤的结构系统化框架
- 评估 — 判断质量或效果的过程能评估
- 对话式人工智能 — 能与人对话的人工智能系统
- 自动化 — 用机器或软件代替人工工作自动化级别
- 知情同意 — 在了解信息后同意接受某事
- 责任归属 — 确定谁为错误或结果负责
- 编造 — 杜撰不存在或不真实的信息可能编造信息
- 偏见 — 不公正的看法或系统性歧视编码偏见
提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。
讨论问题
- 你认为心理治疗中哪些环节适合先使用低风险的自动化工具?请说明理由。
- 如果AI在治疗中出错,医院、开发者和治疗师中谁应承担责任?请说明你的看法。
- 团队计划开发评估会话并提供反馈的工具,你认为这种工具会如何影响咨询员的技能发展?