Investigadores de la University of Zurich analizaron cómo cambia la evaluación de un texto por parte de cuatro LLMs cuando se indica quién lo escribió. Los modelos estudiados fueron OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 y Mistral. Cada sistema generó fifty declaraciones narrativas sobre 24 temas controvertidos, entre ellos mandatos de vacunación, geopolítica y políticas de cambio climático, y el equipo recopiló 192’000 valoraciones para su análisis.
Con los textos sin atribuir, el acuerdo entre modelos fue alto (over 90%). Al asignar autores ficticios —personas de distintas nacionalidades o la autoría de otra IA— el patrón cambió: la revelación de la identidad produjo un sesgo oculto que redujo drásticamente el consenso, aunque el contenido permaneciera idéntico. El hallazgo más llamativo fue un sesgo consistente contra autores de China en todos los modelos, incluido Deepseek; en un caso sobre la soberanía de Taiwán, Deepseek redujo el acuerdo hasta un 75% porque esperaba un punto de vista distinto.
El estudio también mostró una tendencia general a confiar más en autores humanos que en otras IAs, con puntuaciones algo más bajas cuando se pensaba que el texto era generado por una máquina. Los investigadores advierten que estos sesgos importan en aplicaciones reales —moderación de contenido, contratación, revisión académica y periodismo— y piden más transparencia y gobernanza. Recomiendan usar los LLMs para ayudar al razonamiento y no para sustituirlo. La investigación aparece en Sciences Advances.
- Modelos probados: OpenAI o3-mini
- Deepseek Reasoner
- xAI Grok 2
- Mistral
Palabras difíciles
- sesgo — Preferencia o prejuicio que distorsiona una valoraciónsesgos
- consenso — acuerdo general entre varias personas o sistemas
- autoría — hecho de ser el creador o responsable de un texto
- transparencia — claridad y acceso a información sobre un proceso
- gobernanza — conjunto de normas y decisiones para gobernar algo
- moderación — control y decisión sobre qué contenido publicar
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿De qué maneras podrían los sesgos contra autores de ciertas nacionalidades afectar la moderación de contenido o la contratación?
- ¿Qué medidas de transparencia y gobernanza crees que serían útiles para reducir estos sesgos en modelos de IA?
- Si un mismo texto recibe valoraciones distintas según el autor atribuido, ¿confiarías en las evaluaciones automáticas? ¿Por qué?
Artículos relacionados
Sistemas naturales para limpiar paneles solares en el desierto
Investigadores egipcios crearon dos sistemas inspirados en la naturaleza para quitar el polvo del desierto de paneles solares. Un sistema usa vibraciones y otro usa el viento; las pruebas muestran pérdidas menores de energía.
Dos tipos de microglías controlan la ansiedad en ratones
Un estudio de la Universidad de Utah encontró que dos poblaciones de microglías tienen efectos opuestos sobre la ansiedad en ratones. Los resultados abren la posibilidad de terapias que actúen sobre estas células, aunque no serán inmediatas.
La IA para frenar la publicidad de tabaco dirigida a jóvenes
En Dublín, expertos dijeron que la inteligencia artificial puede ayudar a impedir que las compañías de tabaco publiquen anuncios para jóvenes en redes sociales. Se mostraron ejemplos de herramientas que ya identifican y quitan contenidos y datos sobre medidas de salud.