Un equipo de la University of Utah creó un marco para ver cuánto trabajo de terapia puede hacer la IA conversacional. El marco organiza cuatro categorías, desde sistemas guionizados hasta agentes que dan terapia directamente.
Los investigadores comparan la utilidad y el riesgo de cada categoría. Dicen que herramientas simples, como toma de notas o aplicaciones de apoyo, tienen un riesgo distinto al de una IA que actúa como terapeuta.
Trabajan con SafeUT para crear herramientas que evalúen sesiones de consejeros de crisis y den retroalimentación para mejorar habilidades.
Palabras difíciles
- marco — estructura o conjunto de ideas para organizar algo
- guionizado — preparado con texto escrito y pasos fijosguionizados
- utilidad — beneficio o uso práctico de algo
- riesgo — posibilidad de daño o problema
- retroalimentación — comentarios para mejorar el trabajo
- consejero — persona que da apoyo y consejoconsejeros
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Crees que la IA puede ayudar en la terapia? ¿Por qué?
- ¿Usarías una aplicación de apoyo para tu salud emocional? ¿Por qué?
- ¿Te parecería útil recibir retroalimentación sobre una sesión de consejería? ¿Por qué?
Artículos relacionados
Estimulación magnética reduce la reactividad de la amígdala en TEPT
Un estudio encontró que la estimulación magnética transcraneal (TMS) dirigida puede calmar la amígdala y mejorar los síntomas del TEPT. El tratamiento fue personalizado con resonancia magnética y mostró beneficios que duraron al menos seis meses.
Patrones de bandadas reducen errores de la IA en resúmenes
Investigadores adaptaron patrones de bandadas de aves para preprocesar textos largos antes de pasarlos a modelos de lenguaje. El método selecciona oraciones representativas y reduce la redundancia, lo que mejora la exactitud factual de los resúmenes.
Mejorar la seguridad en modelos de lenguaje
Investigadores de North Carolina State University estudiaron cómo mejorar el alineamiento de seguridad en modelos de lenguaje grande. Identificaron neuronas clave y probaron congelarlas al afinar para reducir salidas inseguras sin perder rendimiento.