L’étude, publiée dans Nature Neuroscience, interroge l’idée selon laquelle les grands modèles de langage (LLMs) fonctionnent comme le cerveau humain. Les auteurs, qui incluent David Poeppel, ont mené plusieurs expériences auprès de locuteurs mandarins et ont enregistré les signaux cérébraux avec la magnétoencéphalographie (MEG). Ils ont complété ces données par des tests de Cloze et par des enregistrements de participants exposés à l’anglais pour vérifier la généralité des résultats.
Les chercheurs ont utilisé des LLMs pour estimer la prévisibilité des mots via deux grandeurs : l’entropie, qui reflète le nombre de mots possibles dans un contexte, et le surprisal, qui mesure l’inattendu d’un mot. Par exemple, la suite après « J’ai vu un » présente une entropie plus élevée que la suite après « Je me suis assis sur un », et « chat » est plus surprenant dans le second contexte.
En comparant les prédictions des modèles et les réponses cérébrales aux mêmes phrases, l’équipe montre que les corrélations ne sont pas uniformes : elles dépendent de la position du mot dans la structure grammaticale. Les résultats indiquent une sensibilité du cerveau aux constituants grammaticaux et suggèrent que la prédiction humaine s’appuie sur des unités organisationnelles plus larges que le seul mot suivant.
- Méthodes : locuteurs mandarins, MEG, tests de Cloze.
- Analyses : LLMs pour entropie et surprisal.
- Conclusion : prédiction modulée par constituants grammaticaux.
Mots difficiles
- magnétoencéphalographie — méthode d'enregistrement des champs magnétiques cérébraux
- entropie — mesure du nombre de mots possibles dans un contexte
- surprisal — mesure de l'inattendu d'un mot dans un contexte
- constituant — élément d'une structure linguistique plus largeconstituants
- prévisibilité — capacité à anticiper quel mot viendra ensuite
- locuteur — personne qui parle une languelocuteurs
- corrélation — lien statistique entre deux mesures ou variablescorrélations
- moduler — changer ou adapter l'intensité ou la façonmodulée
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Que pensez-vous de l'idée que le cerveau utilise des constituants grammaticaux pour prédire le langage ? Donnez un exemple.
- Quels avantages et quelles limites voyez-vous à comparer les LLMs au cerveau humain pour étudier la prédiction linguistique ?
- Pourquoi les chercheurs ont-ils inclus des locuteurs mandarins et des participants exposés à l'anglais ? Quelles différences cela peut-il révéler ?
Articles liés
Une IA apprend des valeurs culturelles en observant des humains
Des chercheurs ont montré qu'une IA, entraînée à partir du comportement humain, peut apprendre des différences de valeurs entre groupes culturels. L'étude utilise le jeu Overcooked et un second test sur le partage d'argent.
Quand dire qu'on est autiste change les conseils de l'IA
Une étude de Virginia Tech montre que révéler un diagnostic d'autisme modifie souvent les réponses de grands modèles de langage. Ces changements suivent fréquemment des stéréotypes, et les chercheurs demandent plus de transparence et de contrôle.
Le cerveau guide l'adaptation sociale
Une étude de l'Université de Zurich montre que l'activité cérébrale aide les personnes à ajuster leur comportement aux autres. Les chercheurs ont utilisé des jeux et des images du cerveau et pensent que cela peut aider à comprendre certains troubles sociaux.
Des bactéries intestinales peuvent atteindre le cerveau après un régime gras
Des chercheurs d'Emory montrent que, chez la souris, un régime riche en graisses modifie le microbiote et la perméabilité intestinale. Des bactéries vivantes ont été trouvées le long du nerf vague et dans le cerveau.