Een nieuw onderzoek onder leiding van Xiaoyan Bai en Chenhao Tan (University of Chicago), met samenwerking van MIT, Harvard University, University of Waterloo en Google DeepMind, verklaart waarom moderne grote taalmodellen moeite hebben met het vermenigvuldigen van twee viercijferige getallen. De studie vergelijkt standaard fine-tuning met Implicit Chain of Thought (ICoT) en legt de nadruk op langeafstandsafhankelijkheden: de noodzaak om deelproducten en lopende totalen op te slaan en later te gebruiken.
Bij standaard fine-tuning behaalden modellen met twee tot 12 lagen minder dan <1% nauwkeurigheid. Het ICoT-getrainde model behaalde daarentegen 100% nauwkeurigheid. Door de interne toestanden te onderzoeken, ontdekten de onderzoekers dat het ICoT-model tussentijdse waarden codeert en dat lopende totalen konden worden gedecodeerd uit de verborgen toestanden. Aandacht werd georganiseerd in verschillende paden door de tijd: vroege lagen berekenen en bewaren producten van cijferparen op specifieke locaties, en latere lagen halen die waarden terug om elk cijfer van het eindantwoord te vormen.
De auteurs merkten ook op dat cijfers werden voorgesteld met Fourier-achtige basiscomponenten en dat een meetkundige bewerking vergelijkbaar met een Minkowski-som tijdens de training vanzelf optrad. Als eenvoudige aanpassing voegden zij een trainingsdoel toe om lopende totalen bij elke stap bij te houden; deze toevoeging verhoogde de nauwkeurigheid van een twee-laags model tot 99% en leidde tot aandachtmechanismen vergelijkbaar met ICoT.
De studie illustreert dat beperkingen niet altijd opgelost worden door alleen meer data of grotere modellen. Gerichte architectuurkeuzes en trainingsdoelen kunnen modellen in staat stellen tot meerstapsredenering, een belangrijk punt nu AI steeds vaker wordt ingezet in kritieke besluitvorming.
Moeilijke woorden
- langeafstandsafhankelijkheid — noodzaak om informatie later opnieuw te gebruikenlangeafstandsafhankelijkheden
- deelproduct — tussenresultaat bij een grotere berekeningdeelproducten
- totaal — huidige som van alle tussenresultatenlopende totalen
- toestand — interne representatie die modelinformatie bevatinterne toestanden, verborgen toestanden
- aandacht — mechanisme dat bepaalt waar het model zich op focustaandachtmechanismen
- decoderen — omzetten van interne signalen naar begrijpelijke waardengedecodeerd
- meerstapsredenering — redenatie in meerdere opeenvolgende stappen
- trainingsdoel — specifieke taak die het model moet leren bereiken
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Waarom kan het belangrijk zijn dat een model tussentijdse waarden bewaart tijdens een berekening? Geef twee redenen.
- Welke voor- en nadelen zie je van gerichte architectuurkeuzes en trainingsdoelen in plaats van alleen meer data verzamelen?
- Hoe zou betere meerstapsredenering de inzet van AI in kritieke besluitvorming kunnen veranderen? Geef één concreet voorbeeld.
Gerelateerde artikelen
Generatieve AI personaliseert reiservaringen
Bedrijfsprofessor Juan Luis Nicolau schrijft in Journal of Smart Tourism dat generatieve AI emoties kan lezen en reizigers via websites en apps vóór, tijdens en na een reis persoonlijke suggesties geeft. Hij waarschuwt ook voor privacy‑ en ethiekvragen.
Hulpmiddel verlaagt partijdige vijandigheid in X-feed
Onderzoekers maakten een webextensie die vijandige politieke berichten in iemands X-feed lager of hoger zet zonder berichten te verwijderen of hulp van het platform. Een experiment met vrijwilligers liet zien dat minder negatieve content mensen warmer tegenover de andere partij maakte.
Magnetische zuivering verwijdert arseen uit grondwater
Twee broers uit India ontwikkelden een magnetische methode om arseen uit grondwater te halen. Hun chemievrije techniek (METAL) leverde het product MARU op; het systeem is goedkoop, makkelijk te onderhouden en kreeg nationale erkenning.
Bosbranden bij Los Angeles leidden tot meer virtuele zorgvraag
Onderzoek naar de bosbranden in Los Angeles in January 2025 vond veel meer virtuele bezoeken, vooral voor ademhalings- en hartklachten. De studie gebruikte gegevens van 3.7 million Kaiser Permanente-leden en benadrukt het belang van telezorg.