Investigadores de la University of Zurich analizaron cómo cambia la evaluación de un texto por parte de cuatro LLMs cuando se indica quién lo escribió. Los modelos estudiados fueron OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 y Mistral. Cada sistema generó fifty declaraciones narrativas sobre 24 temas controvertidos, entre ellos mandatos de vacunación, geopolítica y políticas de cambio climático, y el equipo recopiló 192’000 valoraciones para su análisis.
Con los textos sin atribuir, el acuerdo entre modelos fue alto (over 90%). Al asignar autores ficticios —personas de distintas nacionalidades o la autoría de otra IA— el patrón cambió: la revelación de la identidad produjo un sesgo oculto que redujo drásticamente el consenso, aunque el contenido permaneciera idéntico. El hallazgo más llamativo fue un sesgo consistente contra autores de China en todos los modelos, incluido Deepseek; en un caso sobre la soberanía de Taiwán, Deepseek redujo el acuerdo hasta un 75% porque esperaba un punto de vista distinto.
El estudio también mostró una tendencia general a confiar más en autores humanos que en otras IAs, con puntuaciones algo más bajas cuando se pensaba que el texto era generado por una máquina. Los investigadores advierten que estos sesgos importan en aplicaciones reales —moderación de contenido, contratación, revisión académica y periodismo— y piden más transparencia y gobernanza. Recomiendan usar los LLMs para ayudar al razonamiento y no para sustituirlo. La investigación aparece en Sciences Advances.
- Modelos probados: OpenAI o3-mini
- Deepseek Reasoner
- xAI Grok 2
- Mistral
Palabras difíciles
- sesgo — Preferencia o prejuicio que distorsiona una valoraciónsesgos
- consenso — acuerdo general entre varias personas o sistemas
- autoría — hecho de ser el creador o responsable de un texto
- transparencia — claridad y acceso a información sobre un proceso
- gobernanza — conjunto de normas y decisiones para gobernar algo
- moderación — control y decisión sobre qué contenido publicar
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿De qué maneras podrían los sesgos contra autores de ciertas nacionalidades afectar la moderación de contenido o la contratación?
- ¿Qué medidas de transparencia y gobernanza crees que serían útiles para reducir estos sesgos en modelos de IA?
- Si un mismo texto recibe valoraciones distintas según el autor atribuido, ¿confiarías en las evaluaciones automáticas? ¿Por qué?
Artículos relacionados
Un estudio conecta la biología celular con las redes cerebrales
Un estudio publicado en Nature Communications conecta datos de imágenes, genética y moléculas para mostrar cómo la biología celular produce las grandes redes cerebrales. El hallazgo puede cambiar el estudio de la cognición y trastornos mentales.
Crean un gel sintético para estudiar el tejido mamario
Ante la falta de un gel de laboratorio durante la pandemia, investigadores de UC Santa Barbara desarrollaron un gel basado en algas que apoya células mamarias y se puede modificar para estudiar cómo el entorno físico influye en su crecimiento.
IA para salud sexual y reproductiva en América Latina
Grupos en América Latina usan inteligencia artificial para dar información sobre salud sexual y reproductiva. Proyectos en Perú y Argentina buscan llegar a jóvenes, comunidades indígenas y personas trans, y también hay advertencias sobre sesgos y daños.
Nuevas herramientas digitales dan más control a los agricultores
En el foro virtual ICTforAg (9-10 de marzo) expertos explicaron que tecnologías como Web3 y herramientas como FarmStack pueden dar a los agricultores más control sobre sus datos y mejorar servicios en países en desarrollo.