Des chercheurs dirigés par Xiaoyan Bai et Chenhao Tan à l'University of Chicago, en collaboration avec des équipes du MIT, de Harvard, de l'University of Waterloo et de Google DeepMind, ont comparé l'affinage standard à l'Implicit Chain of Thought (ICoT) pour une tâche simple mais révélatrice : multiplier deux nombres à quatre chiffres. Ils se sont intéressés au problème des dépendances à long terme, où le modèle doit conserver des produits partiels et des sommes courantes pour produire un résultat correct.
Sous l'affinage standard, des modèles de 2 à 12 couches n'ont obtenu qu'une précision inférieure à 1 %. En revanche, le modèle entraîné avec ICoT a atteint une précision de 100 %. L'équipe a sondé les états internes et a pu décoder les sommes courantes depuis les états cachés, preuve que le modèle ICoT encode et mémorise les valeurs intermédiaires nécessaires.
Les auteurs ont observé que ICoT organise l'attention en voies distinctes au fil du temps : les couches précoces calculent et stockent les produits de paires de chiffres à des emplacements précis, et les couches ultérieures récupèrent ces valeurs pour former chaque chiffre du résultat. Ils notent aussi des représentations des chiffres en bases de type Fourier et l'apparition naturelle d'une opération géométrique proche d'une somme de Minkowski durant l'entraînement.
Pour tester une modification simple, les chercheurs ont ajouté un objectif d'entraînement qui apprend au modèle à suivre les sommes courantes à chaque étape. Appliqué à un modèle à deux couches, cet objectif a fait passer la précision à 99 % sans supervision explicite par chaîne de pensée, et le modèle a développé des mécanismes d'attention similaires à ICoT. Les auteurs concluent que certaines limites ne se résolvent pas seulement en augmentant les données ou les paramètres, et que l'architecture et les objectifs d'entraînement ciblés sont essentiels. « À mesure que l'IA est de plus en plus intégrée dans la prise de décisions critiques, il est essentiel de comprendre ses façons uniques d'apprendre et de penser », déclare Chenhao Tan.
Mots difficiles
- affinage — processus d'ajustement fin d'un modèle
- dépendance — lien où une étape dépend d'anciennes informationsdépendances
- état caché — représentation interne non visible du modèleétats cachés
- attention — mécanisme qui donne du poids à certaines informations
- produit partiel — valeur intermédiaire pendant un calcul multiplicatifproduits partiels
- somme courante — total provisoire mis à jour étape par étapesommes courantes
- encoder — transformer une information en représentation interneencode
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Pourquoi, selon l'article, augmenter seulement les données ou les paramètres peut être insuffisant pour résoudre certaines limites ?
- Quels avantages et risques voyez-vous à pouvoir décoder des valeurs intermédiaires depuis les états internes d'un modèle ?
- Pensez-vous que l'idée d'ajouter un objectif pour suivre les sommes courantes pourrait s'appliquer à d'autres tâches complexes ? Donnez un exemple.
Articles liés
Nouvelle caisse locale améliore la fermentation du cacao en Ouganda
À Kasawo, une caisse de fermentation fabriquée localement améliore la qualité du cacao et permet aux agriculteurs de mieux vendre et d’augmenter leurs revenus. Les chercheurs travaillent à améliorer le design et à étendre la distribution.
Africa Wiki Women : donner plus de visibilité aux femmes africaines
Africa Wiki Women aide les femmes africaines à créer et améliorer des articles sur Wikipedia et d'autres plates‑formes Wikimedia. Global Voices a publié une interview des cofondatrices à l'occasion de la Journée internationale des femmes 2026.
Les réseaux sociaux comme alerte sur les déplacements de population
Une étude publiée dans EPJ Data Science montre que l’analyse des publications sur les réseaux sociaux peut donner une alerte précoce sur les mouvements de population pendant les crises et aider les agences humanitaires à mieux réagir.