Une nouvelle étude montre que des chatbots basés sur l'IA peuvent modifier les opinions des utilisateurs même quand leurs réponses sont courtes et factuelles. De petits cadres narratifs insérés dans des résumés factuels suffisent à déplacer des points de vue.
Pour tester l'effet, des participants ont lu des résumés générés par GPT-4o, des articles de Wikipedia, ou des résumés conçus pour être libéraux ou conservateurs. Les résumés par défaut et les résumés libéraux ont rendu les opinions plus libérales que Wikipedia. Le cadrage conservateur a produit des opinions plus conservatrices dans certains cas.
Les chercheurs relient ces changements à des biais latents dans l'entraînement des modèles et au rôle des instructions données aux modèles. Ils préviennent aussi que le développement des chatbots reste opaque.
Mots difficiles
- étude — recherche organisée pour trouver des informations
- chatbot — programme informatique qui parle avec un utilisateurchatbots
- cadre narratif — petit texte qui oriente une histoire ou idéecadres narratifs
- factuel — qui contient des faits, pas d'opinionsfactuelles, factuels
- biais — erreur ou préférence qui change un résultat
- entraînement — processus de préparation des modèles avec des données
- opaque — difficile à comprendre ou à expliquer
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Penses-tu que de courts résumés factuels peuvent changer une opinion ? Pourquoi ?
- Comment vérifierais-tu si un résumé est biaisé ?
- Es-tu inquiet que le développement des chatbots soit opaque ? Pourquoi ?