Nieuw onderzoek van de University of Chicago en partners bekijkt waarom moderne taalmodellen slecht zijn in lange berekeningen, zoals het vermenigvuldigen van twee viercijferige getallen. De onderzoekers vergelijken gewone fine-tuning met een andere methode, Implicit Chain of Thought (ICoT).
Modellen met twee tot 12 lagen haalden zeer lage nauwkeurigheid, terwijl het ICoT-getrainde model 100% correct was op de taak. De onderzoekers zagen dat ICoT tussentijdse waarden kon opslaan en later gebruiken. Toen ze een extra trainingsdoel toevoegden om lopende totalen bij te houden, steeg de nauwkeurigheid van een eenvoudig model tot 99%.
Moeilijke woorden
- onderzoek — systematisch werk om iets te ontdekken
- vergelijken — kijken naar verschillen en overeenkomsten
- nauwkeurigheid — hoe goed of precies een resultaat is
- opslaan — iets bewaren om later te gebruiken
- trainen — leren van een model met voorbeeldengetrainde
- lopende totalen — totaal dat steeds bij elkaar wordt opgeteld
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Vind je dat taalmodellen goed moeten kunnen rekenen? Waarom?
- Heb je wel eens met grote getallen op papier vermenigvuldigd?
- Hoe zou jij een model leren tussentijdse waarden te bewaren?
Gerelateerde artikelen
Nieuwe methode verlaagt CO2 en beschermt servers
Onderzoekers stellen Federated Carbon Intelligence (FCI) voor: een systeem dat realtime servergezondheid en milieugegevens koppelt om CO2-uitstoot te verminderen en hardware langer te laten werken. Simulaties tonen grote winst; testen in echte datacenters is de volgende stap.
Hersenachtig weefsel gekweekt zonder dierlijke materialen
Wetenschappers kweekten functioneel hersenachtig weefsel zonder dierlijke materialen of biologische lagen. Het nieuwe PEG-scaffold ondersteunt gedoneerde cellen en maakt betrouwbare tests voor neurologische ziekten mogelijk.