Investigadores de la University of Zurich probaron cuatro LLMs populares: OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 y Mistral. Cada modelo generó fifty declaraciones narrativas sobre 24 temas controvertidos, como mandatos de vacunación, geopolítica y políticas de cambio climático.
Luego pidieron a los modelos que evaluaran esas declaraciones con diferentes fuentes: a veces sin autor y otras veces atribuyendo el texto a una persona de cierta nacionalidad o a otra IA. Recolectaron 192’000 valoraciones. Cuando no se dio la fuente, los modelos coincidieron over 90%. Al añadir fuentes ficticias, el acuerdo bajó mucho y apareció un sesgo marcado contra autores de China, incluso en Deepseek. Además, los modelos mostraron más confianza en autores humanos que en textos escritos por otras IA.
Palabras difíciles
- modelo — Un tipo o plan para algo.Modelos
- evaluar — Juzgar o examinar algo.evalúan, evaluación
- sesgo — Una tendencia que afecta la objetividad.
- autor — La persona que escribe un texto.autores
- confía — Creer en la habilidad de alguien.confían
- información — Conjunto de datos o hechos.
- moderación — Control o regulación de algo.
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Por qué crees que hay sesgo contra autores de China?
- ¿Cómo podría mejorar la evaluación de los MLG?
- ¿Qué impacto tiene la falta de información sobre el autor en el juicio de un texto?
Artículos relacionados
Heces cuadradas de wombats y su posible función comunicativa
Un equipo liderado por Scott Carver investiga si las heces cuadradas de los wombats sirven para comunicarse. Analizaron químicamente las deposiciones y observaron el comportamiento con cámaras para ver la reacción ante heces extrañas.