LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
Marco para evaluar la automatización de la terapia con IA — Nivel B2 — two hands touching each other in front of a blue background

Marco para evaluar la automatización de la terapia con IACEFR B2

21 abr 2026

Nivel B2 – Intermedio-alto
5 min
290 palabras

Un equipo de la University of Utah, liderado por Zac Imel y con colaboradores como Vivek Srikumar y Brent Kious, ha propuesto un marco para evaluar hasta qué punto la labor terapéutica puede automatizarse a medida que los modelos de lenguaje grande (LLMs) se integran en la práctica clínica. El trabajo, publicado por adelantado antes de su aparición en Current Directions in Psychological Science, describe cuatro categorías de automatización que van desde baja hasta alta:

  • Categoría A: sistemas guionizados con contenido redactado por humanos.
  • Categoría B: IA que evalúa a los terapeutas y puntúa sesiones.
  • Categoría C: IA que asiste al terapeuta con sugerencias.
  • Categoría D: IA que proporciona terapia directamente con un agente autónomo.

Los autores evalúan la utilidad y el riesgo de cada categoría y subrayan que herramientas simples, como asistentes para tomar notas o apps de coaching, no implican los mismos riesgos que un terapeuta autónomo. Señalan también que usuarios y sistemas de salud pueden no saber qué nivel de automatización se emplea, lo que complica el consentimiento, la responsabilidad y las consecuencias de errores.

El equipo colabora con SafeUT, la línea estatal de crisis por mensaje de texto de Utah, para desarrollar herramientas que evalúen sesiones de consejeros de crisis y ofrezcan retroalimentación que ayude a mantener y desarrollar habilidades. Imel afirma que LLMs entrenados pueden capturar componentes clave del tratamiento y ofrecer retroalimentación oportuna a escala, pero los autores advierten sobre la fabricación de información, la incorporación de sesgos y la conducta impredecible de estos modelos. Recomiendan empezar con herramientas más ligeras y de menor riesgo mientras se investigan beneficios y daños. Otros coautores proceden de la University of Washington, la University of Pennsylvania y el Alan Turing Institute; Zac Imel es cofundador de Lyssn.

Palabras difíciles

  • automatizarhacer que una tarea funcione sin intervención humana
    automatizarse
  • modelorepresentación o sistema que procesa datos y lenguaje
    modelos
  • categoríagrupo que clasifica elementos según características
  • riesgoposibilidad de daño o resultado negativo
    riesgos
  • consentimientoaceptación informada y voluntaria de una acción
  • responsabilidadobligación de responder por actos y consecuencias
  • sesgotendencia o prejuicio que distorsiona resultados
    sesgos
  • retroalimentacióncomentarios que ayudan a mejorar una tarea
  • evaluarexaminar o valorar la calidad o desempeño
    evalúan
  • integrarincorporar algo dentro de un sistema o proceso
    integran

Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.

Preguntas de discusión

  • Según el texto, ¿qué ventajas y qué riesgos tiene usar IA para asistir a terapeutas (categoría C)? Explica con ejemplos breves.
  • El artículo recomienda empezar con herramientas de menor riesgo. ¿Por qué te parece una estrategia adecuada o no? Da razones relacionadas con el texto.
  • ¿Cómo se podría informar a los usuarios sobre el nivel de automatización que usa una app de salud mental? Propón dos medidas prácticas.

Artículos relacionados