Des modèles génératifs d'IA largement disponibles, tels que ChatGPT, Claude et LLaMa, peuvent prédire la personnalité, certains comportements et les émotions quotidiennes avec une précision comparable, voire supérieure, à celle de personnes proches du sujet. Les équipes ont voulu savoir si ces systèmes peuvent agir comme des « juges » de la personnalité en lisant le langage ordinaire produit par les gens.
Pour tester cette idée, l'IA a lu de courts journaux vidéo quotidiens et des enregistrements plus longs où les participants parlaient de leurs pensées. Les données provenaient de plus de 160 personnes, rassemblées en conditions réelles et en laboratoire. Ensuite, l'IA a répondu à des questions de personnalité comme si elle était la personne concernée. Les méthodes d'analyse de texte plus anciennes n'ont pas obtenu des performances comparables.
Les résultats montrent que les scores de l'IA correspondaient étroitement aux auto-évaluations et, souvent, étaient en meilleur accord que les évaluations d'amis ou de membres de la famille. Les évaluations par l'IA ont aussi aidé à prédire des éléments concrets de la vie des personnes: leurs émotions quotidiennes, leur niveau de stress, leur comportement social et le fait d'avoir reçu un diagnostic ou d'avoir cherché un traitement en santé mentale.
- Chandra Sripada souligne que le langage contient des indices profonds.
- Colin Vize voit une nouvelle frontière pour la psychologie.
- Whitney Ringwald note la présence de la personnalité dans la vie quotidienne.
Plusieurs questions restent ouvertes: l'étude repose sur des auto-évaluations, elle n'a pas directement testé la comparaison détaillée avec les jugements d'amis ou de la famille, et on ignore l'éventuelle variation selon l'âge, le sexe ou la race. Il n'est pas non plus clair si l'IA utilise les mêmes signaux que les humains, ou si elle pourrait un jour dépasser les auto-évaluations pour prédire des résultats majeurs de la vie. Les conclusions sont publiées dans Nature Human Behavior (source: University of Michigan).
Mots difficiles
- modèle — représentation ou système pour expliquer des donnéesmodèles
- prédire — annoncer à l'avance ce qui va arriver
- auto-évaluation — évaluation qu'une personne fait d'elle-mêmeauto-évaluations
- juge — personne qui évalue ou donne un avisjuges
- diagnostic — identification d'une maladie ou d'un trouble
- indice — élément qui donne une indication sur quelque choseindices
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Quels bénéfices et quels risques voyez-vous si l'IA peut évaluer la personnalité mieux que des proches ?
- Quelles autres méthodes ou données proposeriez-vous pour vérifier si l'IA utilise les mêmes signaux que les humains ?
- Comment la possibilité que l'IA prédit un diagnostic ou un traitement en santé mentale pourrait affecter la confidentialité et la relation patient‑professionnel ?
Articles liés
Le réchauffement rend les anoles bruns plus agressifs
Une étude de Tulane montre que la hausse de la température augmente l’agressivité des anoles bruns envers les anoles verts. Les chercheurs ont testé des paires d’animaux dans des enclos et relient ces résultats au changement climatique.
Deux novae vues en images directes
Des astronomes ont obtenu, quelques jours après l’éruption, des images directes de deux novae. Les images révèlent des éjections multiples et, pour l’une des novae, une expulsion retardée du gaz confirmée par des observations gamma et spectroscopiques.
Les LLM jugent différemment selon l'auteur indiqué
Des chercheurs de l'Université de Zurich montrent que les grands modèles de langage changent leur évaluation d'un texte si l'on précise qui l'a écrit. L'étude révèle un biais marqué, notamment anti‑chinois, et demande plus de transparence.