Nieuw onderzoek van de University of Chicago en partners bekijkt waarom moderne taalmodellen slecht zijn in lange berekeningen, zoals het vermenigvuldigen van twee viercijferige getallen. De onderzoekers vergelijken gewone fine-tuning met een andere methode, Implicit Chain of Thought (ICoT).
Modellen met twee tot 12 lagen haalden zeer lage nauwkeurigheid, terwijl het ICoT-getrainde model 100% correct was op de taak. De onderzoekers zagen dat ICoT tussentijdse waarden kon opslaan en later gebruiken. Toen ze een extra trainingsdoel toevoegden om lopende totalen bij te houden, steeg de nauwkeurigheid van een eenvoudig model tot 99%.
Moeilijke woorden
- onderzoek — systematisch werk om iets te ontdekken
- vergelijken — kijken naar verschillen en overeenkomsten
- nauwkeurigheid — hoe goed of precies een resultaat is
- opslaan — iets bewaren om later te gebruiken
- trainen — leren van een model met voorbeeldengetrainde
- lopende totalen — totaal dat steeds bij elkaar wordt opgeteld
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Vind je dat taalmodellen goed moeten kunnen rekenen? Waarom?
- Heb je wel eens met grote getallen op papier vermenigvuldigd?
- Hoe zou jij een model leren tussentijdse waarden te bewaren?
Gerelateerde artikelen
Soedan zet AI in om tekort aan zorg te helpen
Na bijna twee jaar oorlog staat de gezondheidszorg in Soedan onder zware druk. Een hoge functionaris zegt dat kunstmatige intelligentie kan helpen waar dokters en ziekenhuizen wegvallen, maar er is dringend meer personeel, medicijnen en apparatuur nodig.
Tieners in Hongkong zoeken emotionele steun bij AI-chatbots
Hong Kong Free Press publiceerde op 12 oktober 2025 een verslag over tieners die AI-chatbots zoals Character.AI en Xingye gebruiken voor troost. Experts waarschuwen voor risico's, privacyproblemen en het belang van menselijke steun.