Une étude publiée montre que les chatbots à base d'IA peuvent modifier les opinions sociales et politiques des utilisateurs, même lorsque les réponses sont courtes et factuelles. Daniel Karell, professeur assistant de sociologie à Yale, explique que demander des faits historiques à un chatbot peut influencer les opinions, même si l'information est exacte et sans intention de persuasion.
Les chercheurs, dirigés par Matthew Shu, ont testé deux événements du XXe siècle : la grève générale de Seattle en février 1919 et les manifestations du Third World Liberation Front en 1968. Ils ont réparti 1 912 participants pour lire soit des résumés par défaut de GPT-4o, soit les articles correspondants de Wikipedia, soit des résumés cadrés en libéral ou en conservateur.
Les résumés par défaut et les résumés libéraux ont conduit à des réponses plus libérales que Wikipedia. Les résumés conservateurs ont produit des opinions plus conservatrices par rapport à Wikipedia, mais cet effet était statistiquement significatif surtout chez les participants s'identifiant comme conservateurs. Les auteurs attribuent ces changements à des biais latents et à des effets de prompting, et ils alertent sur l'opacité du développement des chatbots.
Mots difficiles
- opacité — manque de transparence dans un processus ou système
- biais — tendance ou influence qui fausse un jugement
- cadrer — présenter une information selon un point de vue choisicadrés
- persuasion — action d'amener quelqu'un à changer d'avis
- significatif — résultat important et statistiquement non dû au hasard
- s'identifier — se dire membre ou sympathisant d'un groupes'identifiant
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Les résultats disent que même des réponses courtes et factuelles peuvent influencer l'opinion. Est-ce que cela vous inquiète ? Pourquoi ?
- Que pourrait-on faire pour réduire les biais dans les résumés générés par des chatbots ?
- Préférez-vous lire un article complet (comme Wikipedia) ou un résumé généré par IA pour un fait historique ? Expliquez votre choix.
Articles liés
Des modèles de langage distinguent la plausibilité des événements
Des chercheurs de Brown University ont testé si des modèles de langage reconnaissent des événements plausibles, improbables, impossibles ou sans sens. Ils ont utilisé l'interprétabilité mécanistique et trouvé des vecteurs internes qui reflètent les jugements humains.