Des chercheurs de l'Université de Zurich ont étudié l'effet de l'identité d'auteur sur les jugements des grands modèles de langage (LLM). Ils ont testé quatre systèmes larges : OpenAI o3‑mini, Deepseek Reasoner, xAI Grok 2 et Mistral. Chaque LLM a généré 50 énoncés narratifs couvrant 24 sujets controversés, dont les mandats de vaccination, la géopolitique et les politiques liées au changement climatique. Les textes ont ensuite été évalués dans plusieurs conditions — parfois sans source, parfois attribués à un humain d'une nationalité précise, parfois présentés comme écrits par un autre LLM — ce qui a donné 192’000 évaluations pour l'analyse.
Sans information sur l'auteur, les systèmes étaient très concordants : l'accord dépassait 90% sur l'ensemble des sujets. Mais l'ajout de sources fictives a révélé un biais profond et caché. L'accord entre systèmes a chuté fortement, parfois jusqu'à disparaître, alors que le texte restait identique. Le résultat le plus marquant est un fort biais anti‑chinois présent dans tous les modèles, y compris Deepseek, qui vient de Chine. Germani observe que « ce jugement moins favorable est apparu même lorsque l'argument était logique et bien rédigé ».
Sur des sujets géopolitiques, par exemple la souveraineté de Taïwan, Deepseek a réduit l'accord jusqu'à 75% simplement parce qu'il s'attendait à un point de vue différent d'une personne originaire de Chine. L'étude note aussi une tendance générale des LLM à faire plus confiance aux auteurs humains qu'aux autres IA : la plupart des modèles donnaient des scores d'accord légèrement inférieurs quand ils pensaient que le texte venait d'une autre IA. Spitale commente que « cela suggère une méfiance intégrée envers le contenu généré par des machines ».
Les chercheurs préviennent que ces biais cachés peuvent avoir des conséquences concrètes pour la modération de contenu, le recrutement, l'évaluation académique ou le journalisme si les systèmes tiennent compte de l'identité de l'auteur. Ils demandent davantage de transparence et de gouvernance, et recommandent d'utiliser les LLM pour aider le raisonnement plutôt que pour le remplacer. La recherche est publiée dans Science Advances (source : Université de Zurich).
Mots difficiles
- identité d'auteur — information sur qui a écrit un texte
- modèle de langage — programme informatique qui génère du textegrands modèles de langage
- biais — préférence ou jugement injuste contre un groupebiais anti‑chinois
- concordant — qui est en accord ou similaireconcordants
- évaluation — action de juger ou mesurer quelque choseévaluations
- méfiance — attitude de doute ou manque de confianceméfiance intégrée
- gouvernance — règles et processus pour diriger une organisation
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Quels risques concrets pour la modération, le recrutement, l'évaluation académique ou le journalisme les biais cachés peuvent-ils provoquer ? Donnez des exemples.
- Quelles mesures pratiques proposeriez-vous pour augmenter la transparence et la gouvernance des LLM afin de réduire ces biais ? Proposez deux actions.
- Pensez-vous qu'il faut toujours indiquer si un texte vient d'une IA ? Pourquoi ou pourquoi pas ? Donnez vos raisons.
Articles liés
Des nanoflowers aident des cellules souches à donner des mitochondries
Des ingénieurs de Texas A&M ont utilisé des nanoparticules en forme de fleur pour doubler la production de mitochondries dans des cellules souches et transférer ces mitochondries à des cellules âgées ou endommagées, restaurant leur énergie sans modification génétique.
Test rapide d'anticorps sans prise de sang
Des chercheurs de la University of Pittsburgh ont créé un test d'anticorps qui prend dix minutes et ne demande pas de prélèvement sanguin. Le test utilise des capteurs sur nanotubes de carbone et détecte des anticorps comme ceux contre SARS-CoV-2 et H1N1.
Certains parents préfèrent le téléphone fixe pour leurs enfants
Des psychologues de Virginia Tech expliquent que beaucoup de familles reviennent au téléphone fixe par inquiétude face aux effets des smartphones. Ils recommandent discussion, encadrement et quelques règles avant d'offrir un téléphone personnel.