LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
치료에 쓰이는 인공지능의 자동화 수준 프레임 — 레벨 B2 — two hands touching each other in front of a blue background

치료에 쓰이는 인공지능의 자동화 수준 프레임CEFR B2

2026년 4월 21일

원문 출처: Brian Maffly - U. Utah, Futurity CC BY 4.0

사진 출처: Igor Omilaev, Unsplash

레벨 B2 – 중고급
4
238 단어

유타 대학교 연구진은 대화형 인공지능, 특히 대형 언어 모델(LLM)이 심리치료 업무에서 어떤 부분을 자동화할 수 있는지 평가하는 실무적 틀을 제시했습니다. 이 보고서는 학술지 Current Directions in Psychological Science에 게재되기 전에 공개되었으며 Zac Imel이 주도하고 Vivek Srikumar, Brent Kious 등 여러 공동연구자가 참여했습니다.

연구진은 자동화 수준을 네 범주로 구분해 유용성과 위험을 비교했습니다. 범주 A는 사전에 작성된 내용과 결정 트리를 따르는 스크립트 시스템입니다. 범주 B는 AI가 상담 세션을 검토해 피드백이나 등급을 제공하는 평가 역할입니다. 범주 C는 인간 치료사가 제공하는 치료 동안 AI가 개입 방법, 문구나 질문을 제안해 보조하는 경우입니다. 범주 D는 자율 에이전트가 반응을 생성하고 환자와 직접 상호작용하며 경우에 따라 감독을 받는 직접 치료 제공을 의미합니다.

연구진은 간단한 기록 도구나 치료 사용 코칭 도구가 완전 자율 AI 치료사와 다른 수준의 위험을 가진다고 지적했습니다. 이용자나 보건 시스템이 자신들이 어떤 자동화 수준을 사용 중인지 항상 알지 못해 동의·책임·오류 영향에 관한 문제가 발생할 수 있습니다. 따라서 논문은 이익과 위해를 연구하면서 리스크가 낮은 가벼운 도구부터 단계적으로 도입할 것을 제안합니다.

추가로 연구팀은 임상가 평가와 멘토링 도구를 개발하려 계획 중이며, 유타 전역의 문자 기반 위기상담 서비스인 SafeUT와 협력해 상담사의 세션을 평가하고 기술 유지·향상에 도움이 되는 피드백을 제공하는 도구를 만들고 있습니다. 논문은 또한 LLM이 정보를 꾸며내거나 편향을 내재화하고 예측 불가능하게 행동할 수 있으며, 반드시 근거 기반 심리치료 기법을 따르지 않을 수 있다는 점을 경고합니다. 추가 공동저자는 University of Washington, University of Pennsylvania, Alan Turing Institute 소속이며, Zac Imel은 Lyssn의 공동창업자입니다.

어려운 단어·표현

  • 대형 언어 모델많은 텍스트로 학습한 언어 생성 인공지능
    대형 언어 모델(LLM)
  • 자동화 수준어떤 작업을 자동으로 하는 정도
    자동화 수준을
  • 자율 에이전트스스로 판단해 행동하는 컴퓨터 프로그램
    자율 에이전트가
  • 편향특정 방향으로 치우친 잘못된 경향
    편향을
  • 꾸며내다사실이 아닌 내용을 새로 만들어 내다
    꾸며내거나
  • 도입새로운 기술이나 제도를 사용하기 시작함
    도입할
  • 근거 기반연구나 증거에 바탕을 둔 방법

팁: 글에서 강조된 단어에 마우스를 올리거나 포커스/탭하면, 읽거나 들으면서 바로 간단한 뜻을 볼 수 있습니다.

토론 질문

  • 사전 작성된 스크립트 시스템(범주 A)과 자율 에이전트(범주 D)의 주요 이익과 위험은 무엇이라고 생각합니까? 구체적으로 비교해 보세요.
  • 논문이 제안한 것처럼 '리스크가 낮은 도구부터 단계적으로 도입'할 때 현장에서 어떤 안전 장치나 감독이 필요할까요? 예를 들어 설명하세요.
  • LLM이 정보를 꾸며내거나 편향을 내재화하는 문제를 줄이려면 연구팀과 임상가는 어떤 협력과 조치를 해야 할까요?

관련 기사