Investigadores de la University of Zurich analizaron cómo cambia la evaluación de un texto por parte de cuatro LLMs cuando se indica quién lo escribió. Los modelos estudiados fueron OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 y Mistral. Cada sistema generó fifty declaraciones narrativas sobre 24 temas controvertidos, entre ellos mandatos de vacunación, geopolítica y políticas de cambio climático, y el equipo recopiló 192’000 valoraciones para su análisis.
Con los textos sin atribuir, el acuerdo entre modelos fue alto (over 90%). Al asignar autores ficticios —personas de distintas nacionalidades o la autoría de otra IA— el patrón cambió: la revelación de la identidad produjo un sesgo oculto que redujo drásticamente el consenso, aunque el contenido permaneciera idéntico. El hallazgo más llamativo fue un sesgo consistente contra autores de China en todos los modelos, incluido Deepseek; en un caso sobre la soberanía de Taiwán, Deepseek redujo el acuerdo hasta un 75% porque esperaba un punto de vista distinto.
El estudio también mostró una tendencia general a confiar más en autores humanos que en otras IAs, con puntuaciones algo más bajas cuando se pensaba que el texto era generado por una máquina. Los investigadores advierten que estos sesgos importan en aplicaciones reales —moderación de contenido, contratación, revisión académica y periodismo— y piden más transparencia y gobernanza. Recomiendan usar los LLMs para ayudar al razonamiento y no para sustituirlo. La investigación aparece en Sciences Advances.
- Modelos probados: OpenAI o3-mini
- Deepseek Reasoner
- xAI Grok 2
- Mistral
Palabras difíciles
- sesgo — Preferencia o prejuicio que distorsiona una valoraciónsesgos
- consenso — acuerdo general entre varias personas o sistemas
- autoría — hecho de ser el creador o responsable de un texto
- transparencia — claridad y acceso a información sobre un proceso
- gobernanza — conjunto de normas y decisiones para gobernar algo
- moderación — control y decisión sobre qué contenido publicar
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿De qué maneras podrían los sesgos contra autores de ciertas nacionalidades afectar la moderación de contenido o la contratación?
- ¿Qué medidas de transparencia y gobernanza crees que serían útiles para reducir estos sesgos en modelos de IA?
- Si un mismo texto recibe valoraciones distintas según el autor atribuido, ¿confiarías en las evaluaciones automáticas? ¿Por qué?
Artículos relacionados
Líder indígena recibe premio por unir saberes y ciencia
Dzoodzo Baniwa, líder del Territorio Indígena Alto Río Negro en Amazonas, recibió un premio de la Fundación Bunge por su trabajo frente a la emergencia climática y por soluciones que combinan conocimiento indígena y práctica científica.
Herramienta reduce la animosidad partidista en X
Un estudio publicado en Science presenta una extensión que reordena la cronología de X para bajar o subir publicaciones dañinas sin borrarlas ni contar con la plataforma. En pruebas con usuarios durante la elección de 2024, bajar ese contenido produjo actitudes más cálidas hacia el otro partido.
Detección de Anopheles stephensi en Madagascar con IA y fotos ciudadanas
Investigadores usaron inteligencia artificial y fotos enviadas por ciudadanos para identificar lo que creen fue la primera detección de Anopheles stephensi en Madagascar. La imagen fue tomada en 2020 y revisada años después.