Des chercheurs de l'University of Chicago et d'autres équipes ont comparé deux méthodes d'entraînement pour des modèles de langage. Ils demandent aux modèles de multiplier deux nombres à quatre chiffres. Avec l'affinage standard, les modèles ne réussissent presque pas la tâche. Avec la méthode Implicit Chain of Thought, appelée ICoT, le modèle a obtenu une précision de 100 %.
Les auteurs ont trouvé que le modèle ICoT garde des valeurs intermédiaires et organise l'attention pour réutiliser ces valeurs. Ils ont aussi ajouté un objectif d'entraînement qui suit les sommes courantes. Cet ajout a fait passer un petit modèle à deux couches à 99 % sans supervision explicite par chaîne de pensée. Les chercheurs concluent que l'architecture et les objectifs d'entraînement sont importants.
Mots difficiles
- entraînement — Processus pour apprendre un modèle informatique
- affinage — Ajustement d'un modèle après l'entraînement initialaffinage standard
- précision — Pourcentage de réponses correctes du modèle
- valeur intermédiaire — Nombre ou information gardée pendant un calculvaleurs intermédiaires
- attention — Mécanisme du modèle pour choisir l'information importante
- objectif d'entraînement — But ou tâche que le modèle doit apprendre
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Penses-tu que garder des valeurs intermédiaires peut aider pour d'autres tâches ? Pourquoi ?
- Quand tu résous un calcul, aimes-tu montrer toutes tes étapes ? Explique brièvement.
- As-tu déjà appris quelque chose avec un entraînement progressif ? Donne un petit exemple.
Articles liés
Des chercheurs fabriquent un tissu cérébral sans produits animaux
Des scientifiques ont obtenu un tissu ressemblant au cerveau sans utiliser de matériaux d'origine animale ni de revêtements biologiques. Le travail, porté par une équipe de UC Riverside, permet de tester des médicaments et de réduire l'usage d'animaux.