Neue Forschung erklärt, warum moderne Large Language Models an der Multiplikation zweier vierstelliger Zahlen scheitern und wie sich dieses Problem beheben lässt. Ein Forscherteam der University of Chicago (geleitet von Xiaoyan Bai und Chenhao Tan) mit Partnern vom MIT, der Harvard University, der University of Waterloo und Google DeepMind verglich Standard-Fine-Tuning mit Implicit Chain of Thought (ICoT). Im Zentrum steht die Frage langer Abhängigkeiten: Modelle müssen Teilprodukte und laufende Summen über mehrere Rechenschritte bewahren, um am Ende eine korrekte Antwort zu liefern.
Beim Standard-Fine-Tuning erreichten Modelle mit zwei bis zwölf Schichten unter 1% Genauigkeit; sie blieben in einem lokalen Optimum hängen und lernten nur Oberflächenmuster. Das ICoT-Modell dagegen erreichte 100% Genauigkeit. Die Forschenden konnten aus den verborgenen Zuständen laufende Summen dekodieren, was belegte, dass ICoT Zwischenwerte kodiert und speichert.
Die Arbeit zeigt, dass das ICoT-Modell Aufmerksamkeit in zeitlich getrennten Pfaden organisiert: Frühe Schichten berechnen und speichern Produktpaare an bestimmten Positionen, spätere Schichten rufen diese Werte ab, um jede Ziffer des Ergebnisses zu bilden. Zudem stellten die Forschenden Fourier-ähnliche Basen für Ziffern und eine während des Trainings entstehende geometrische Operation ähnlich einer Minkowski-Summe fest.
Als Intervention fügten die Forschenden ein Trainingsziel hinzu, das das Modell lehrt, bei jedem Schritt laufende Summen zu verfolgen. Diese Ergänzung erhöhte die Genauigkeit eines zweischichtigen Modells auf 99% ohne explizite Chain-of-Thought-Anweisungen; das Modell entwickelte ähnliche Aufmerksamkeitsmechanismen und neue Strategien zur Verfolgung mehrerer Ziffernpaaren. Die Studie macht deutlich, dass mehr Daten oder größere Modelle allein nicht ausreichen und dass gezielte Architektur- und Trainingsänderungen mehrstufiges Denken ermöglichen. Quelle: University of Chicago
Schwierige Wörter
- Abhängigkeit — Verbindung, bei der frühere Daten später relevant sindAbhängigkeiten
- Optimum — bester Wert innerhalb eines eingeschränkten Bereichs
- dekodieren — versteckte Information aus Zuständen lesbar machen
- Zustand — innere Situation eines Systems oder ModellsZuständen
- Summe — Ergebnis beim Addieren mehrerer ZahlenSummen
- Aufmerksamkeit — Mechanismus, der wichtige Informationen hervorhebt
- Schicht — eine Ebene eines neuronalen ModellsSchichten
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Rolle spielen laufende Summen beim mehrstufigen Rechnen in Sprachmodellen?
- Welche Vorteile und Nachteile sehen Sie bei einem Trainingsziel, das Modelle lehrt, laufende Summen zu verfolgen?
- Sollten Entwickler eher Architektur- und Trainingsänderungen vornehmen oder mehr Daten und größere Modelle verwenden? Begründen Sie Ihre Meinung.
Verwandte Artikel
Echtzeit-Luftüberwachung in Südafrika mit kostengünstigen Sensoren
Wissenschaftler passten Methoden aus der Teilchenphysik an und bauten das System AI_r mit Sensoren und KI für Echtzeit-Luftmessung. Das Projekt will 500 Sensoren im Sedibeng-Distrikt installieren und erhält internationale Unterstützung.
Grillenfutter aus Lebensmittelabfällen in Uganda
In Masaka, Uganda, züchten Kleinbauern Grillen als Eiweißquelle. Forschende der Uganda Christian University entwickelten günstiges Futter aus städtischen Lebensmittelabfällen. Das neue Futter soll Kosten senken, Abfall nutzen und die Produktion verbessern.
Digitale Gewalt gegen Journalistinnen und Aktivistinnen in Indonesien
In Indonesien erleben Journalistinnen und Aktivistinnen seit fünf Jahren vermehrt digitale Gewalt. Studien, Einzelfälle und Opferberichte zeigen angespannte Schutzlagen, rechtsstaatliche Lücken und Forderungen nach schnellerer Plattformverantwortung und sensibler Moderation.