Neue Forschung erklärt, warum moderne Large Language Models an der Multiplikation zweier vierstelliger Zahlen scheitern und wie sich dieses Problem beheben lässt. Ein Forscherteam der University of Chicago (geleitet von Xiaoyan Bai und Chenhao Tan) mit Partnern vom MIT, der Harvard University, der University of Waterloo und Google DeepMind verglich Standard-Fine-Tuning mit Implicit Chain of Thought (ICoT). Im Zentrum steht die Frage langer Abhängigkeiten: Modelle müssen Teilprodukte und laufende Summen über mehrere Rechenschritte bewahren, um am Ende eine korrekte Antwort zu liefern.
Beim Standard-Fine-Tuning erreichten Modelle mit zwei bis zwölf Schichten unter 1% Genauigkeit; sie blieben in einem lokalen Optimum hängen und lernten nur Oberflächenmuster. Das ICoT-Modell dagegen erreichte 100% Genauigkeit. Die Forschenden konnten aus den verborgenen Zuständen laufende Summen dekodieren, was belegte, dass ICoT Zwischenwerte kodiert und speichert.
Die Arbeit zeigt, dass das ICoT-Modell Aufmerksamkeit in zeitlich getrennten Pfaden organisiert: Frühe Schichten berechnen und speichern Produktpaare an bestimmten Positionen, spätere Schichten rufen diese Werte ab, um jede Ziffer des Ergebnisses zu bilden. Zudem stellten die Forschenden Fourier-ähnliche Basen für Ziffern und eine während des Trainings entstehende geometrische Operation ähnlich einer Minkowski-Summe fest.
Als Intervention fügten die Forschenden ein Trainingsziel hinzu, das das Modell lehrt, bei jedem Schritt laufende Summen zu verfolgen. Diese Ergänzung erhöhte die Genauigkeit eines zweischichtigen Modells auf 99% ohne explizite Chain-of-Thought-Anweisungen; das Modell entwickelte ähnliche Aufmerksamkeitsmechanismen und neue Strategien zur Verfolgung mehrerer Ziffernpaaren. Die Studie macht deutlich, dass mehr Daten oder größere Modelle allein nicht ausreichen und dass gezielte Architektur- und Trainingsänderungen mehrstufiges Denken ermöglichen. Quelle: University of Chicago
Schwierige Wörter
- Abhängigkeit — Verbindung, bei der frühere Daten später relevant sindAbhängigkeiten
- Optimum — bester Wert innerhalb eines eingeschränkten Bereichs
- dekodieren — versteckte Information aus Zuständen lesbar machen
- Zustand — innere Situation eines Systems oder ModellsZuständen
- Summe — Ergebnis beim Addieren mehrerer ZahlenSummen
- Aufmerksamkeit — Mechanismus, der wichtige Informationen hervorhebt
- Schicht — eine Ebene eines neuronalen ModellsSchichten
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Rolle spielen laufende Summen beim mehrstufigen Rechnen in Sprachmodellen?
- Welche Vorteile und Nachteile sehen Sie bei einem Trainingsziel, das Modelle lehrt, laufende Summen zu verfolgen?
- Sollten Entwickler eher Architektur- und Trainingsänderungen vornehmen oder mehr Daten und größere Modelle verwenden? Begründen Sie Ihre Meinung.
Verwandte Artikel
Sudans Gesundheit in der Krise: KI als Notlösung
Der Gesundheitssektor im Sudan steht unter großem Druck nach fast zwei Jahren Krieg. Gesundheitsvertreter sehen in künstlicher Intelligenz eine Hilfe, fordern aber dringend mehr Personal, Medikamente und Unterstützung nach Kämpfen und Überschwemmungen.
Forscher verbessern Sicherheit großer Sprachmodelle
Forschende der North Carolina State University untersuchen, wie Sicherheitsausrichtung bei großen Sprachmodellen funktioniert. Sie beschreiben die SSAH und zeigen, dass das Einfrieren bestimmter Neuronen beim Feinabstimmen Sicherheit und Leistung besser bewahren kann.
KI und Ungleichheit zwischen Globalem Norden und Globalem Süden
Künstliche Intelligenz könnte die Weltwirtschaft stark verändern, aber die Vorteile verteilen sich ungleich. Der Text zeigt historische Ursachen, aktuelle Beispiele aus Afrika und Forderungen nach transparenter, inklusiver KI‑Governance.
Gehirnaktivität bei Mäusen über den Tag verfolgen
Forscher entwickelten experimentelle und rechnerische Methoden, um bei Mäusen mit Einzelzellauflösung zu sehen, welche Hirnregionen im Tagesverlauf aktiv sind. Die Studie erschien in PLOS Biology und hilft, Müdigkeit besser zu verstehen.