Waarom taalmodellen moeite hebben met vermenigvuldigen
Onderzoekers van de University of Chicago en partners onderzochten waarom grote taalmodellen twee viercijferige getallen slecht vermenigvuldigen. Een nieuwe trainingsmethode (ICoT) liet modellen tussentijdse waarden onthouden en verbeterde de nauwkeurigheid sterk.