Une nouvelle étude montre que des chatbots basés sur l'IA peuvent modifier les opinions des utilisateurs même quand leurs réponses sont courtes et factuelles. De petits cadres narratifs insérés dans des résumés factuels suffisent à déplacer des points de vue.
Pour tester l'effet, des participants ont lu des résumés générés par GPT-4o, des articles de Wikipedia, ou des résumés conçus pour être libéraux ou conservateurs. Les résumés par défaut et les résumés libéraux ont rendu les opinions plus libérales que Wikipedia. Le cadrage conservateur a produit des opinions plus conservatrices dans certains cas.
Les chercheurs relient ces changements à des biais latents dans l'entraînement des modèles et au rôle des instructions données aux modèles. Ils préviennent aussi que le développement des chatbots reste opaque.
Mots difficiles
- étude — recherche organisée pour trouver des informations
- chatbot — programme informatique qui parle avec un utilisateurchatbots
- cadre narratif — petit texte qui oriente une histoire ou idéecadres narratifs
- factuel — qui contient des faits, pas d'opinionsfactuelles, factuels
- biais — erreur ou préférence qui change un résultat
- entraînement — processus de préparation des modèles avec des données
- opaque — difficile à comprendre ou à expliquer
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Penses-tu que de courts résumés factuels peuvent changer une opinion ? Pourquoi ?
- Comment vérifierais-tu si un résumé est biaisé ?
- Es-tu inquiet que le développement des chatbots soit opaque ? Pourquoi ?
Articles liés
Des modèles de langage distinguent la plausibilité des événements
Des chercheurs de Brown University ont testé si des modèles de langage reconnaissent des événements plausibles, improbables, impossibles ou sans sens. Ils ont utilisé l'interprétabilité mécanistique et trouvé des vecteurs internes qui reflètent les jugements humains.