El estudio, publicado en PNAS Nexus, tiene a Matthew Shu como autor principal y a Daniel Karell como autor sénior. Karell, profesor asistente de sociología en Yale University, resume la idea central: «Mostramos que consultar a un chatbot de IA para obtener hechos históricos puede influir en la opinión de las personas incluso cuando la información proporcionada es precisa y nadie ha pedido a la herramienta que intente persuadir de nada».
Para la prueba, 1,912 participantes leyeron resúmenes generados por GPT-4o, las entradas de Wikipedia correspondientes o versiones solicitadas con un encuadre liberal o conservador. Los textos trataban dos sucesos del siglo XX: el Seattle General Strike, una huelga de cinco días en febrero 1919, y las protestas estudiantiles del Third World Liberation Front en 1968.
Los resultados muestran que los resúmenes por defecto y los solicitados con encuadre liberal empujaron a los participantes hacia opiniones más liberales en comparación con Wikipedia. El encuadre conservador produjo opiniones más conservadoras respecto a Wikipedia, pero su efecto significativo apareció principalmente entre quienes ya se identificaban como conservadores. Los autores atribuyen estos cambios a sesgos latentes en los large language models, que pueden reflejar inclinaciones ideológicas en los datos y a diferencias sutiles en la presentación; además distinguen el papel del prompting en los encuadres.
Los investigadores advierten que, a diferencia de la edición transparente de Wikipedia, el desarrollo de chatbots es opaco: «Nuestro trabajo sugiere que las empresas que desarrollan estos modelos tienen la capacidad de moldear las opiniones de las personas, lo cual es una idea inquietante», señala el estudio. Coautores adicionales provienen de Yale y Rutgers University. Fuente: Yale University.
Palabras difíciles
- encuadre — manera de presentar información con cierta orientación
- sesgo — tendencia que altera juicio u opiniónsesgos
- latente — existente pero no evidente o visiblelatentes
- influir — producir un cambio en la opinión o acción
- opaco — poco claro o transparente para el público
- persuadir — convencer a alguien para cambiar su opinión
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Qué consecuencias pueden tener los sesgos latentes en modelos de lenguaje para la información pública? Da ejemplos o razones.
- ¿Preferirías usar Wikipedia o un resumen generado por IA para investigar hechos históricos? Explica tu elección.
- ¿Qué medidas podrían aumentar la transparencia en el desarrollo y uso de chatbots?
Artículos relacionados
Guantes desechables pueden falsear mediciones de microplásticos
Investigadores de la University of Michigan hallaron que recubrimientos en guantes desechables dejan partículas llamadas estearatos que pueden confundirse con microplásticos y contaminar muestras de aire, agua y superficies de laboratorio.
Informe: alianza de grandes empresas limita a agricultores
Un informe de IPES-Food, publicado el miércoles (25 February), alerta que la estrecha alianza entre grandes empresas agrícolas y tecnológicas dificulta el acceso de agricultores de pequeña escala a herramientas digitales modernas.
Preocupaciones por la vigilancia con IA en India
La rápida adopción de inteligencia artificial en India ha aumentado la vigilancia pública y las preocupaciones por la privacidad. Eventos de 2025–2026 muestran uso extenso de reconocimiento facial y fallos que afectan a servicios y derechos.
Un pequeño grupo de células controla el reloj circadiano
Investigadores crearon una herramienta para mapear cómo se comunican las células del núcleo supraquiasmático (SCN). Los mapas muestran que unas pocas células muy conectadas, llamadas hubs, son esenciales para la sincronía y el tiempo corporal.