Un equipo de la University of Utah, liderado por Zac Imel y con colaboradores como Vivek Srikumar y Brent Kious, ha propuesto un marco para evaluar hasta qué punto la labor terapéutica puede automatizarse a medida que los modelos de lenguaje grande (LLMs) se integran en la práctica clínica. El trabajo, publicado por adelantado antes de su aparición en Current Directions in Psychological Science, describe cuatro categorías de automatización que van desde baja hasta alta:
- Categoría A: sistemas guionizados con contenido redactado por humanos.
- Categoría B: IA que evalúa a los terapeutas y puntúa sesiones.
- Categoría C: IA que asiste al terapeuta con sugerencias.
- Categoría D: IA que proporciona terapia directamente con un agente autónomo.
Los autores evalúan la utilidad y el riesgo de cada categoría y subrayan que herramientas simples, como asistentes para tomar notas o apps de coaching, no implican los mismos riesgos que un terapeuta autónomo. Señalan también que usuarios y sistemas de salud pueden no saber qué nivel de automatización se emplea, lo que complica el consentimiento, la responsabilidad y las consecuencias de errores.
El equipo colabora con SafeUT, la línea estatal de crisis por mensaje de texto de Utah, para desarrollar herramientas que evalúen sesiones de consejeros de crisis y ofrezcan retroalimentación que ayude a mantener y desarrollar habilidades. Imel afirma que LLMs entrenados pueden capturar componentes clave del tratamiento y ofrecer retroalimentación oportuna a escala, pero los autores advierten sobre la fabricación de información, la incorporación de sesgos y la conducta impredecible de estos modelos. Recomiendan empezar con herramientas más ligeras y de menor riesgo mientras se investigan beneficios y daños. Otros coautores proceden de la University of Washington, la University of Pennsylvania y el Alan Turing Institute; Zac Imel es cofundador de Lyssn.
Palabras difíciles
- automatizar — hacer que una tarea funcione sin intervención humanaautomatizarse
- modelo — representación o sistema que procesa datos y lenguajemodelos
- categoría — grupo que clasifica elementos según características
- riesgo — posibilidad de daño o resultado negativoriesgos
- consentimiento — aceptación informada y voluntaria de una acción
- responsabilidad — obligación de responder por actos y consecuencias
- sesgo — tendencia o prejuicio que distorsiona resultadossesgos
- retroalimentación — comentarios que ayudan a mejorar una tarea
- evaluar — examinar o valorar la calidad o desempeñoevalúan
- integrar — incorporar algo dentro de un sistema o procesointegran
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- Según el texto, ¿qué ventajas y qué riesgos tiene usar IA para asistir a terapeutas (categoría C)? Explica con ejemplos breves.
- El artículo recomienda empezar con herramientas de menor riesgo. ¿Por qué te parece una estrategia adecuada o no? Da razones relacionadas con el texto.
- ¿Cómo se podría informar a los usuarios sobre el nivel de automatización que usa una app de salud mental? Propón dos medidas prácticas.
Artículos relacionados
Por qué los modelos fallan al multiplicar números largos
Una investigación analiza por qué modelos de lenguaje no pueden multiplicar números de varias cifras. Compararon el ajuste fino estándar con un método llamado cadena de pensamiento implícita (ICoT), que sí aprendió a guardar cálculos intermedios.
Restricción de visados entre India y Bangladesh tras crisis política
Tras la destitución de la ex primera ministra en agosto de 2024, India limitó los visados para ciudadanos de Bangladesh. La medida provocó una fuerte caída del turismo, especialmente del turismo médico, y pérdidas económicas en ciudades como Kolkata.
Estudio: más actividad cerebral en personas con TOC durante una tarea secuencial
Un estudio con resonancia magnética funcional encontró que personas con trastorno obsesivo-compulsivo muestran mayor actividad en varias regiones cerebrales al realizar una tarea secuencial. Los autores sugieren que esto podría orientar tratamientos como la TMS.
La complejidad del mundo real produce sesgo en la IA
Un estudio de la Universidad de Texas en Austin concluye que una causa importante del sesgo en la inteligencia artificial es la incapacidad para modelar la complejidad del mundo real. Identifica tres factores que aumentan ese riesgo.