Une nouvelle recherche, publiée dans PNAS Nexus et dirigée par Matthew Shu (Yale College, promotion 2025), montre que les chatbots à base d'IA peuvent orienter les opinions sociales et politiques des utilisateurs même lorsque leurs réponses sont courtes, factuelles et apparemment neutres. Daniel Karell (Yale) souligne que la simple consultation de faits historiques auprès d'un chatbot peut influencer des points de vue, sans que l'outil ait cherché à convaincre.
L'équipe a étudié deux événements du XXe siècle — la grève générale de Seattle en février 1919 et les manifestations du Third World Liberation Front en 1968 — et a fait lire à 1 912 participants soit des résumés par défaut de GPT-4o, soit les articles Wikipedia correspondants, soit des résumés explicitement cadrés en libéral ou en conservateur.
Comparés à Wikipedia, les résumés par défaut et les résumés libéraux ont poussé les lecteurs vers des opinions plus libérales. Les résumés conservateurs ont produit des opinions plus conservatrices par rapport à Wikipedia, mais cet effet était statistiquement significatif principalement chez les participants se disant conservateurs. Les auteurs expliquent que des biais latents introduits pendant l'entraînement des grands modèles de langage, qui reflètent parfois des orientations idéologiques dans les données, modifient subtilement le cadrage des récits. Ils notent aussi que le cadrage conservateur peut venir surtout du prompting, tandis que le cadrage libéral peut résulter à la fois de biais latents et de prompting.
Les chercheurs avertissent que, contrairement à l'édition transparente de Wikipedia, le développement des chatbots reste opaque et que les entreprises disposant de ces modèles ont la capacité de façonner les opinions publiques. D'autres coauteurs sont affiliés à Yale et Rutgers University. Source : Yale University.
Mots difficiles
- orienter — influencer la direction d'une opinion ou action
- cadrer — présenter une information avec un angle préciscadrés
- biais — distorsion ou erreur qui fausse un résultat
- latent — qui existe mais n'est pas visible immédiatementlatents
- entraînement — processus d'apprentissage d'un modèle informatique
- façonner — donner une forme ou influencer une idée
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Comment comparez-vous la transparence de Wikipedia et l'opacité des chatbots pour évaluer la fiabilité d'une information ?
- Quelles mesures pourraient limiter l'influence des biais latents dans les modèles d'IA selon vous ?
- Pensez-vous que les entreprises qui développent ces modèles devraient être régulées pour éviter de façonner l'opinion publique ? Pourquoi ?
Articles liés
La Chine lance une grande campagne contre les contenus négatifs en ligne
La CAC a lancé le 22 septembre une campagne de deux mois pour supprimer des contenus en ligne jugés incitatifs à l'antagonisme, à la violence et aux sentiments négatifs. Plusieurs influenceurs ont été bannis et des plateformes ont retiré des publications.
Aguada Fénix : un monument maya découvert au Tabasco
Une équipe dirigée par l'University of Arizona a annoncé en 2020 la découverte d'un immense monument à Aguada Fénix, Tabasco. Les fouilles montrent un aménagement rituel ancien avec des objets cérémoniels et des pigments placés par direction.
Des règles demandées pour l'édition génétique des cultures au Mexique
Vingt‑huit chercheurs mexicains demandent des règles claires pour distinguer l'édition génétique des OGM. Ils ont publié une déclaration et lancé une pétition; un décret signé en mars limite la culture du maïs génétiquement modifié.
IA et photos citoyennes pour détecter Anopheles stephensi à Madagascar
Des chercheurs disent avoir utilisé l'intelligence artificielle et des photos envoyées par des citoyens pour identifier ce qu'ils pensent être le premier Anopheles stephensi à Madagascar. La photo date de 2020 et la découverte met en lumière des défis de surveillance urbaine.