El estudio, publicado en PNAS Nexus, tiene a Matthew Shu como autor principal y a Daniel Karell como autor sénior. Karell, profesor asistente de sociología en Yale University, resume la idea central: «Mostramos que consultar a un chatbot de IA para obtener hechos históricos puede influir en la opinión de las personas incluso cuando la información proporcionada es precisa y nadie ha pedido a la herramienta que intente persuadir de nada».
Para la prueba, 1,912 participantes leyeron resúmenes generados por GPT-4o, las entradas de Wikipedia correspondientes o versiones solicitadas con un encuadre liberal o conservador. Los textos trataban dos sucesos del siglo XX: el Seattle General Strike, una huelga de cinco días en febrero 1919, y las protestas estudiantiles del Third World Liberation Front en 1968.
Los resultados muestran que los resúmenes por defecto y los solicitados con encuadre liberal empujaron a los participantes hacia opiniones más liberales en comparación con Wikipedia. El encuadre conservador produjo opiniones más conservadoras respecto a Wikipedia, pero su efecto significativo apareció principalmente entre quienes ya se identificaban como conservadores. Los autores atribuyen estos cambios a sesgos latentes en los large language models, que pueden reflejar inclinaciones ideológicas en los datos y a diferencias sutiles en la presentación; además distinguen el papel del prompting en los encuadres.
Los investigadores advierten que, a diferencia de la edición transparente de Wikipedia, el desarrollo de chatbots es opaco: «Nuestro trabajo sugiere que las empresas que desarrollan estos modelos tienen la capacidad de moldear las opiniones de las personas, lo cual es una idea inquietante», señala el estudio. Coautores adicionales provienen de Yale y Rutgers University. Fuente: Yale University.
Palabras difíciles
- encuadre — manera de presentar información con cierta orientación
- sesgo — tendencia que altera juicio u opiniónsesgos
- latente — existente pero no evidente o visiblelatentes
- influir — producir un cambio en la opinión o acción
- opaco — poco claro o transparente para el público
- persuadir — convencer a alguien para cambiar su opinión
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Qué consecuencias pueden tener los sesgos latentes en modelos de lenguaje para la información pública? Da ejemplos o razones.
- ¿Preferirías usar Wikipedia o un resumen generado por IA para investigar hechos históricos? Explica tu elección.
- ¿Qué medidas podrían aumentar la transparencia en el desarrollo y uso de chatbots?
Artículos relacionados
La atención cambia en ciclos de siete a diez veces por segundo
Científicos informan que la atención humana oscila aproximadamente siete a diez veces por segundo. Un estudio con registros EEG muestra por qué las notificaciones distraen y sugiere implicaciones para la concentración y trastornos como el TDAH.
Simulaciones cuánticas muestran cómo la luz UV altera el hielo
Investigadores usaron simulaciones de mecánica cuántica para entender cómo la luz ultravioleta cambia la química del hielo. Los resultados ayudan a explicar experimentos antiguos y tienen implicaciones para el permafrost y lunas heladas.
La “respiración” de las baterías reduce su vida útil
Investigadores hallaron que la expansión y contracción en cada ciclo de carga y descarga causa tensiones internas, llamadas degradación quimomecánica y "cascadas de tensión", que acortan la vida de las baterías. El estudio fue publicado en Science.
IA ayuda a detectar melanoma con imágenes 3D
Investigadores de la University of Missouri prueban si la inteligencia artificial puede ayudar a detectar el melanoma mediante el análisis de fotografías 3D de la piel. La IA sería una herramienta de apoyo para identificar casos que requieren atención médica.