LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
评估人工智能在心理治疗中的自动化程度 — 等级 B2 — two hands touching each other in front of a blue background

评估人工智能在心理治疗中的自动化程度CEFR B2

2026年4月21日

改编自 Brian Maffly - U. Utah, Futurity CC BY 4.0

照片: Igor Omilaev, Unsplash

等级 B2 – 中高级
5 分钟
267

来自犹他大学的研究团队建立了一个系统化框架,用以评估在对话式人工智能日益普及的背景下,心理治疗工作有哪些环节可以被自动化,以及相应的使用、风险与责任问题。该框架已提前发布在Current Directions in Psychological Science,作者由Zac Imel牵头,合著者还包括Vivek Srikumar、Brent Kious,其他合著者来自University of Washington、University of Pennsylvania和Alan Turing Institute。

研究把自动化分为四类:A类为脚本化系统(事先撰写内容,按决策树呈现);B类为AI审查并评分治疗师;C类为AI在人工治疗中提供建议或措辞提示;D类为AI直接提供治疗,作为自主代理与患者互动。团队对每一类的潜在有用性与风险进行了比较,强调像简单记笔记或教练工具与完全自主的AI治疗师在风险上有显著差别。

研究者指出,用户和医疗系统有时可能不知道自己正在使用哪个自动化级别,这会引发知情同意、责任归属以及错误后果的疑问。团队计划与SafeUT合作,开发能评估危机咨询员会话并提供反馈的工具,以帮助维持和发展技能。作者警告说,直接用于咨询的训练型语言模型可能编造信息、编码偏见并表现出不可预测性,且不一定遵循循证治疗技术,因此论文建议在研究利益与危害的同时,先从较轻的低风险工具入手。

难词

  • 框架组织概念与步骤的结构
    系统化框架
  • 评估判断质量或效果的过程
    能评估
  • 对话式人工智能能与人对话的人工智能系统
  • 自动化用机器或软件代替人工工作
    自动化级别
  • 知情同意在了解信息后同意接受某事
  • 责任归属确定谁为错误或结果负责
  • 编造杜撰不存在或不真实的信息
    可能编造信息
  • 偏见不公正的看法或系统性歧视
    编码偏见

提示:在文章中将鼠标悬停、聚焦或轻触高亮词语,即可在阅读或听音频时快速查看简要释义。

讨论问题

  • 你认为心理治疗中哪些环节适合先使用低风险的自动化工具?请说明理由。
  • 如果AI在治疗中出错,医院、开发者和治疗师中谁应承担责任?请说明你的看法。
  • 团队计划开发评估会话并提供反馈的工具,你认为这种工具会如何影响咨询员的技能发展?

相关文章