El estudio, presentado en la conferencia CHI de la Association for Computing Machinery por el doctorando Caleb Wohn y el equipo del laboratorio de la profesora asistente Eugenia Rho en Virginia Tech, evaluó hasta qué punto la divulgación del autismo altera las recomendaciones de grandes modelos de lenguaje. Los investigadores identificaron 12 estereotipos bien documentados y construyeron cientos de escenarios de toma de decisiones para probar seis sistemas distintos, entre ellos GPT-4, Claude, Llama, Gemini y DeepSeek.
En total generaron 345,000 respuestas a miles de indicaciones del tipo «¿Debería hacer A o B?» que abarcaban eventos sociales, confrontaciones, nuevas experiencias y relaciones románticas. Los resultados muestran desplazamientos sistemáticos hacia supuestos estereotípicos: por ejemplo, un modelo recomendó rechazar una invitación casi el 75% de las veces tras la divulgación del autismo, frente a cerca del 15% cuando no se mencionó; en escenarios de citas, otro aconsejó evitar el romance casi el 70% frente al 50% sin la mención. Además, once de las 12 señales estereotípicas influyeron significativamente en al menos cuatro de los seis sistemas evaluados.
El equipo complementó el análisis con entrevistas a 11 usuarios autistas, que mostraron reacciones mixtas: algunos describieron las respuestas como restrictivas o condescendientes —uno preguntó «¿Estamos escribiendo una columna de consejos para Spock aquí?»— y otros apreciaron consejos más cautelosos. Rho resumió la tensión con la frase «El sesgo de un usuario podría ser la personalización de otro usuario», y los autores califican el hallazgo como una «paradoja de seguridad-oportunidad». Wohn advirtió que la IA puede ocultar sesgos a la vez que parece fiable; el equipo espera que estos resultados impulsen a los desarrolladores a crear sistemas más transparentes que permitan a los usuarios controlar cómo la identidad personal moldea las respuestas. Fuente: Virginia Tech.
- Metodología: 12 estereotipos y cientos de escenarios.
- Modelos probados: seis grandes sistemas, entre ellos GPT-4.
- Resultados: cambios claros en recomendaciones sociales.
Palabras difíciles
- divulgación — acto de dar a conocer información personal
- estereotipo — idea general y simplificada sobre un grupoestereotipos
- sesgo — tendencia o prejuicio que altera juiciosesgos
- personalización — adaptación de respuestas a características personales
- paradoja — situación con resultados opuestos o contradictorios
- condescendiente — que trata a otros con superioridad o paternalismocondescendientes
- transparente — claro y comprensible sobre cómo funciona algotransparentes
- recomendación — consejo o sugerencia para tomar una decisiónrecomendaciones
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Qué ventajas y riesgos ves en que un modelo adapte sus respuestas según la identidad personal, como el autismo?
- ¿Qué cambios concretos podrían pedir los usuarios para controlar cómo su identidad moldea las respuestas de un sistema?
- ¿Deberían los desarrolladores priorizar más la transparencia o la seguridad en estos sistemas? Explica tu razón.
Artículos relacionados
La IA y la modernización de los tribunales en India
India moderniza sus tribunales con el proyecto e-Courts y Fase III, que incorpora IA y otras tecnologías. Herramientas como SUPACE, SUVAS y Adalat.AI ayudan al trabajo judicial, pero hay preocupaciones sobre errores, sesgos y datos personales.