LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
Языковые модели учатся различать правдоподобие — Уровень B2 — Ai letters on a glowing orange and blue background

Языковые модели учатся различать правдоподобиеCEFR B2

26 апр. 2026 г.

Адаптировано по материалам Brown University, Futurity CC BY 4.0

Фото: Zach M, Unsplash

Уровень B2 – выше среднего
4 мин
225 слов

Исследователи проверили, понимают ли современные языковые модели реальные свойства мира, учитывая, что большинство чат‑ботов обучаются на больших объёмах интернет‑текстов с фактами, ошибками и бессмыслицей. Работу подготовили сотрудники Браунского университета и представили на конференции International Conference on Learning Representations в Рио‑де‑Жанейро. Руководитель проекта, докторант Майкл Лепори, описал подход как попытку найти в моделях ограничения, похожие на причинные законы, и отметил, что внутренние состояния моделей предсказывают человеческие суждения.

В эксперименте команде показали предложения с событиями разной правдоподобности: привычные, маловероятные, невозможные и бессмысленные — например, «Кто‑то охладил напиток льдом», «...снегом», «...огнём», «...вчерашним днём». Для каждого предложения анализировали математические внутренние состояния модели; этот метод называют механистической интерпретируемостью и Лепори сравнил его с «нейронаукой для систем ИИ».

Эксперименты провели на нескольких открытых моделях, включая GPT‑2 (OpenAI), Llama 3.2 (Meta) и Gemma 2 (Google), чтобы не зависеть от одной архитектуры. Авторы нашли, что достаточно крупные модели формируют отдельные внутренние векторы, соответствующие категориям правдоподобия. Эти векторы умеют различать близкие категории, например маловероятное и невозможное, с примерно 85% точности и показывают разделённые суждения при двусмысленности, похожие на результаты опросов. Учёные отмечают, что такие векторы начинают появляться в моделях с более чем 2 миллиарда параметров, и полагают, что результаты могут помочь в создании более умных и надёжных моделей.

  • Механистическая интерпретируемость позволяет понять, что кодирует модель.
  • Внутренние векторы соответствуют человеческим суждениям о правдоподобии.
  • Результаты могут помочь создать более надёжные модели.

Сложные слова

  • механистическая интерпретируемостьметод анализа внутренних частей модели
  • векторчисловой набор значений, описывающий состояние модели
    векторы
  • правдоподобиенасколько событие похоже на реальную ситуацию
    правдоподобности, правдоподобии
  • нейронауканаука о работе и структуре мозга
    нейронаукой
  • параметрчисло или настройка внутри модели
    параметров
  • двусмысленностьналичие двух или более возможных смыслов
    двусмысленности

Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.

Вопросы для обсуждения

  • Почему важно, что внутренние векторы модели соответствуют человеческим суждениям о правдоподобии?
  • Какие практические применения могут появиться, если модели начнут лучше различать правдоподобные и неправдоподобные события?
  • Какие ограничения или риски вы видите в использовании механистической интерпретируемости для оценки надежности моделей?

Похожие статьи

Новые нейроны у певчих птиц прорываются через ткань мозга — Уровень B2
21 апр. 2026 г.

Новые нейроны у певчих птиц прорываются через ткань мозга

Учёные из Boston University изучили у зебрового амадина, как в взрослом мозге появляются новые нейроны. Оказалось, что клетки иногда прорываются через зрелую ткань — это важно для понимания регенерации и медицины.

Уровень
Птичий грипп H5N1 у чёрных стервятников в США — Уровень B2
17 мар. 2026 г.

Птичий грипп H5N1 у чёрных стервятников в США

Исследователи из Университета Джорджии нашли высокопатогенный птичий грипп у чёрных стервятников. Тушки птиц, собранные в 2022–2023 годах, дали много положительных результатов, и учёные предупреждают о возможном скрытом ущербе для вида.

Уровень
Мозг предсказывает слова через грамматические группы — Уровень B2
21 апр. 2026 г.

Мозг предсказывает слова через грамматические группы

Новое исследование в Nature Neuroscience показывает: человеческий мозг предсказывает слова, опираясь на грамматические группы (конституенты), а не только на следующее слово, в отличие от больших языковых моделей.

Уровень