LingVo.club
Niveau
Waarom taalmodellen moeite hebben met vermenigvuldigen — Niveau A2 — brown wooden blocks on white surface

Waarom taalmodellen moeite hebben met vermenigvuldigenCEFR A2

29 dec 2025

Niveau A2 – Basis / elementair
2 min
94 woorden

Nieuw onderzoek van de University of Chicago en partners bekijkt waarom moderne taalmodellen slecht zijn in lange berekeningen, zoals het vermenigvuldigen van twee viercijferige getallen. De onderzoekers vergelijken gewone fine-tuning met een andere methode, Implicit Chain of Thought (ICoT).

Modellen met twee tot 12 lagen haalden zeer lage nauwkeurigheid, terwijl het ICoT-getrainde model 100% correct was op de taak. De onderzoekers zagen dat ICoT tussentijdse waarden kon opslaan en later gebruiken. Toen ze een extra trainingsdoel toevoegden om lopende totalen bij te houden, steeg de nauwkeurigheid van een eenvoudig model tot 99%.

Moeilijke woorden

  • onderzoeksystematisch werk om iets te ontdekken
  • vergelijkenkijken naar verschillen en overeenkomsten
  • nauwkeurigheidhoe goed of precies een resultaat is
  • opslaaniets bewaren om later te gebruiken
  • trainenleren van een model met voorbeelden
    getrainde
  • lopende totalentotaal dat steeds bij elkaar wordt opgeteld

Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.

Discussievragen

  • Vind je dat taalmodellen goed moeten kunnen rekenen? Waarom?
  • Heb je wel eens met grote getallen op papier vermenigvuldigd?
  • Hoe zou jij een model leren tussentijdse waarden te bewaren?

Gerelateerde artikelen