LingVo.club
📖+20 XP
🎧+15 XP
+25 XP
Modelos de lenguaje muestran sesgos según la identidad del autor — Nivel A2 — three white disc on brown surface

Modelos de lenguaje muestran sesgos según la identidad del autorCEFR A2

25 nov 2025

Nivel A2 – Básico / elemental
3 min
122 palabras

Investigadores de la University of Zurich probaron cuatro LLMs populares: OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 y Mistral. Cada modelo generó fifty declaraciones narrativas sobre 24 temas controvertidos, como mandatos de vacunación, geopolítica y políticas de cambio climático.

Luego pidieron a los modelos que evaluaran esas declaraciones con diferentes fuentes: a veces sin autor y otras veces atribuyendo el texto a una persona de cierta nacionalidad o a otra IA. Recolectaron 192’000 valoraciones. Cuando no se dio la fuente, los modelos coincidieron over 90%. Al añadir fuentes ficticias, el acuerdo bajó mucho y apareció un sesgo marcado contra autores de China, incluso en Deepseek. Además, los modelos mostraron más confianza en autores humanos que en textos escritos por otras IA.

Palabras difíciles

  • modeloUn tipo o plan para algo.
    Modelos
  • evaluarJuzgar o examinar algo.
    evalúan, evaluación
  • sesgoUna tendencia que afecta la objetividad.
  • autorLa persona que escribe un texto.
    autores
  • confíaCreer en la habilidad de alguien.
    confían
  • informaciónConjunto de datos o hechos.
  • moderaciónControl o regulación de algo.

Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.

Preguntas de discusión

  • ¿Por qué crees que hay sesgo contra autores de China?
  • ¿Cómo podría mejorar la evaluación de los MLG?
  • ¿Qué impacto tiene la falta de información sobre el autor en el juicio de un texto?

Artículos relacionados

La IA puede aprender valores culturales — Nivel A2
15 dic 2025

La IA puede aprender valores culturales

Una investigación de la University of Washington estudia si la inteligencia artificial aprende valores culturales observando el comportamiento humano. Encontraron que agentes entrenados con datos latinos mostraron más conducta altruista en pruebas de juego y donaciones.