LingVo.club
📖+30 XP
🎧+20 XP
+35 XP
Почему языковые модели ошибаются при умножении четырёхзначных чисел — Уровень B1 — brown wooden blocks on white surface

Почему языковые модели ошибаются при умножении четырёхзначных чиселCEFR B1

29 дек. 2025 г.

Уровень B1 – средний
3 мин
141 слов

Новое исследование под руководством Xiaoyan Bai и Chenhao Tan (University of Chicago) совместно с учёными из MIT, Harvard, University of Waterloo и Google DeepMind объясняет, почему современные большие языковые модели плохо умножают четырёхзначные числа. Авторы сравнили стандартную дообученную настройку и метод Implicit Chain of Thought (ICoT). При стандартной донастройке модели с от двух до 12 слоёв показали менее 1% точности при умножении четырёхзначных чисел.

Модель, обученная по ICoT, достигла 100% точности. Исследователи проанализировали скрытые состояния и выяснили, что ICoT кодирует промежуточные значения: из них можно декодировать текущие суммы, что подтверждает запоминание важных для вычислений величин.

Также команда показала, что добавление вспомогательной цели обучения для отслеживания сумм повысило точность обычной двухслойной модели почти до 99% и привело к появлению механизмов внимания, похожих на ICoT. Авторы подчёркивают, что простое увеличение данных или параметров не решает проблему без подходящих архитектурных подсказок и целей обучения.

Сложные слова

  • исследованиеработа чтобы узнать новые факты
  • донастройкадополнительное обучение модели после основного
    донастройке
  • скрытое состояниевнутренние представления модели в нейронных слоях
    скрытые состояния
  • промежуточное значениечисло между шагами вычисления или обработки
    промежуточные значения
  • вниманиемеханизм фокусировки модели на части входа
    внимания
  • вспомогательная цельдополнительная задача которую модель учится решать
    вспомогательной цели
  • декодироватьпереводить внутренние представления в понятный результат
  • точностьнасколько ответы модели являются правильными
    точности

Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.

Вопросы для обсуждения

  • Почему кодирование промежуточных значений важно для точных вычислений в моделях?
  • Какие преимущества и недостатки у подхода с вспомогательной целью обучения?
  • Достаточно ли улучшать модели только увеличением данных и параметров? Объясните.

Похожие статьи

Как данные и технологии меняют Олимпиаду 2026 — Уровень B1
16 февр. 2026 г.

Как данные и технологии меняют Олимпиаду 2026

На Олимпийских играх 2026 года команды и исследователи будут использовать больше данных и новых технологий. Аналитика помогает тренерам и делает трансляции понятнее, но рост технологий вызывает вопросы о справедливости и правилах.

Уровень
Замедлить репосты, чтобы уменьшить дезинформацию — Уровень B1
6 дек. 2025 г.

Замедлить репосты, чтобы уменьшить дезинформацию

Исследователи из Университета Копенгагена предлагают сделать репосты чуть сложнее: добавить небольшую паузу и элемент обучения. Модель показывает, что пауза снижает репосты, а пауза вместе с обучением повышает качество распространяемых постов.

Уровень
Leamos: клуб для глубокого чтения — Уровень B1
1 мар. 2026 г.

Leamos: клуб для глубокого чтения

Leamos — читательская группа, созданная маркетологом Benjamedn Edwards. Клуб проводит еженедельные онлайн-встречи и обсуждает, почему живое групповое чтение даёт то, чего не может полностью заменить искусственный интеллект.

Уровень
Социальные сети и незаконная торговля мясом диких животных — Уровень B1
13 июн. 2023 г.

Социальные сети и незаконная торговля мясом диких животных

Исследование в журнале One Health предупреждает, что через социальные сети в Западной Африке растёт незаконная торговля мясом диких животных. Это угрожает биологическому разнообразию и повышает риск зоонозных болезней.

Уровень