Des chercheurs de l'Université de Zurich ont étudié l'effet de l'identité d'auteur sur les jugements des grands modèles de langage (LLM). Ils ont testé quatre systèmes larges : OpenAI o3‑mini, Deepseek Reasoner, xAI Grok 2 et Mistral. Chaque LLM a généré 50 énoncés narratifs couvrant 24 sujets controversés, dont les mandats de vaccination, la géopolitique et les politiques liées au changement climatique. Les textes ont ensuite été évalués dans plusieurs conditions — parfois sans source, parfois attribués à un humain d'une nationalité précise, parfois présentés comme écrits par un autre LLM — ce qui a donné 192’000 évaluations pour l'analyse.
Sans information sur l'auteur, les systèmes étaient très concordants : l'accord dépassait 90% sur l'ensemble des sujets. Mais l'ajout de sources fictives a révélé un biais profond et caché. L'accord entre systèmes a chuté fortement, parfois jusqu'à disparaître, alors que le texte restait identique. Le résultat le plus marquant est un fort biais anti‑chinois présent dans tous les modèles, y compris Deepseek, qui vient de Chine. Germani observe que « ce jugement moins favorable est apparu même lorsque l'argument était logique et bien rédigé ».
Sur des sujets géopolitiques, par exemple la souveraineté de Taïwan, Deepseek a réduit l'accord jusqu'à 75% simplement parce qu'il s'attendait à un point de vue différent d'une personne originaire de Chine. L'étude note aussi une tendance générale des LLM à faire plus confiance aux auteurs humains qu'aux autres IA : la plupart des modèles donnaient des scores d'accord légèrement inférieurs quand ils pensaient que le texte venait d'une autre IA. Spitale commente que « cela suggère une méfiance intégrée envers le contenu généré par des machines ».
Les chercheurs préviennent que ces biais cachés peuvent avoir des conséquences concrètes pour la modération de contenu, le recrutement, l'évaluation académique ou le journalisme si les systèmes tiennent compte de l'identité de l'auteur. Ils demandent davantage de transparence et de gouvernance, et recommandent d'utiliser les LLM pour aider le raisonnement plutôt que pour le remplacer. La recherche est publiée dans Science Advances (source : Université de Zurich).
Mots difficiles
- identité d'auteur — information sur qui a écrit un texte
- modèle de langage — programme informatique qui génère du textegrands modèles de langage
- biais — préférence ou jugement injuste contre un groupebiais anti‑chinois
- concordant — qui est en accord ou similaireconcordants
- évaluation — action de juger ou mesurer quelque choseévaluations
- méfiance — attitude de doute ou manque de confianceméfiance intégrée
- gouvernance — règles et processus pour diriger une organisation
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Quels risques concrets pour la modération, le recrutement, l'évaluation académique ou le journalisme les biais cachés peuvent-ils provoquer ? Donnez des exemples.
- Quelles mesures pratiques proposeriez-vous pour augmenter la transparence et la gouvernance des LLM afin de réduire ces biais ? Proposez deux actions.
- Pensez-vous qu'il faut toujours indiquer si un texte vient d'une IA ? Pourquoi ou pourquoi pas ? Donnez vos raisons.
Articles liés
Bactery : une batterie qui utilise des bactéries du sol
Une start-up d'une université britannique a créé Bactery, une batterie qui utilise des bactéries du sol pour produire de l'énergie et recharger. Le prototype a été testé au Brésil et la production à petite échelle est visée en 2026.
La cybersécurité au sommet UA‑UE de Luanda
Les menaces numériques ont été au centre des échanges entre l'Union africaine et l'Union européenne à Luanda. Les journalistes subissent des logiciels espions et la région fait face à des cyberattaques massives et à un besoin d'investissements.
Soudan : un système de santé en crise et le recours à l'IA
Le système de santé du Soudan est très touché après presque deux ans de guerre. Les autorités évoquent des pénuries, des médecins partis ou tués, et un recours à l'intelligence artificielle, tandis que les inondations aggravent la situation.
Le cortisol renforce la mémoire des expériences émotionnelles
Une équipe de Yale a montré que le cortisol libéré sous stress modifie l'activité cérébrale et aide à retenir des expériences émotionnelles. Des participants ont pris de l'hydrocortisone ou un placebo avant de regarder des images en IRMf.