Un equipo de la University of Zurich evaluó cómo la identidad del autor afecta las valoraciones de cuatro LLMs: OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 y Mistral. Los modelos generaron fifty declaraciones narrativas sobre 24 temas controvertidos, entre ellos mandatos de vacunación, geopolítica y políticas sobre cambio climático. El experimento produjo 192’000 valoraciones.
Cuando no se proporcionó información sobre la fuente, los modelos mostraron un alto nivel de acuerdo, over 90% en todos los temas. Sin embargo, al atribuir cada texto a autores ficticios —personas de distintas nacionalidades o a otras IAs— el acuerdo cayó y a veces desapareció, pese a que el texto era idéntico. Los investigadores observaron un fuerte sesgo anti‑chino en todos los modelos, incluso en Deepseek, y encontraron que Deepseek redujo el acuerdo hasta un 75% en un tema sobre la soberanía de Taiwán.
También se vio que la mayoría de los modelos otorgó puntuaciones algo más bajas cuando creyó que el texto fue escrito por otra IA. Los autores advierten que estos sesgos pueden afectar la moderación de contenido, la contratación, la revisión académica y el periodismo, y piden transparencia y gobernanza en el uso de LLMs.
Palabras difíciles
- sesgo — Preferencia o inclinación hacia algo.anti-chino
- investigadores — Personas que estudian un tema o problema.
- modelo — Ejemplo o sistema que se sigue.modelos
- concordancia — Acuerdo o coincidencia entre cosas.
- transparencia — Claridad en la comunicación o información.
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Por qué es importante la transparencia en la evaluación de textos?
- ¿Cómo podría afectar el sesgo en modelos de lenguaje en la sociedad?
- ¿Qué soluciones propondrías para reducir el sesgo en MLG?
Artículos relacionados
Líder indígena recibe premio por unir saberes y ciencia
Dzoodzo Baniwa, líder del Territorio Indígena Alto Río Negro en Amazonas, recibió un premio de la Fundación Bunge por su trabajo frente a la emergencia climática y por soluciones que combinan conocimiento indígena y práctica científica.
Herramienta reduce la animosidad partidista en X
Un estudio publicado en Science presenta una extensión que reordena la cronología de X para bajar o subir publicaciones dañinas sin borrarlas ni contar con la plataforma. En pruebas con usuarios durante la elección de 2024, bajar ese contenido produjo actitudes más cálidas hacia el otro partido.
Detección de Anopheles stephensi en Madagascar con IA y fotos ciudadanas
Investigadores usaron inteligencia artificial y fotos enviadas por ciudadanos para identificar lo que creen fue la primera detección de Anopheles stephensi en Madagascar. La imagen fue tomada en 2020 y revisada años después.