LingVo.club
レベル
大規模言語モデルが4桁の掛け算でつまずく理由 — レベル B1 — brown wooden blocks on white surface

大規模言語モデルが4桁の掛け算でつまずく理由CEFR B1

2025年12月29日

原文: U. Chicago, Futurity CC BY 4.0

写真: Brett Jordan, Unsplash

レベル B1 – 中級
3
169

University of ChicagoのXiaoyan BaiとChenhao Tanらが主導した研究は、現在の訓練法がなぜモデルに長距離依存の計算を学ばせにくいかを示しました。チームはMITやHarvard、University of Waterloo、Google DeepMindの共同研究者とともに、標準的なファインチューニングとImplicit Chain of Thought(ICoT)を比較しました。

その結果、標準訓練下の2〜12層モデルは4桁の掛け算で1%未満の精度でした。一方でICoTで訓練したモデルは中間値を内部に符号化し、隠れ状態から途中の合計をデコードでき、100%の精度を達成しました。

また、簡単な訓練目標を追加して途中の合計を学ばせるだけで、二層モデルは明示的な思考連鎖なしに99%の精度を示し、注意の使い方や計算戦略を変えました。

難しい単語

  • 訓練法モデルを学習させるための方法
  • 長距離依存離れた要素同士の関係の性質
  • ファインチューニング既存のモデルを特定用途に調整すること
    標準的なファインチューニング
  • 中間値計算や処理の途中で出る値
  • 符号化する情報を別の形で表すこと
    符号化し
  • 隠れ状態モデル内部の見えない情報の状態
  • デコードする内部の情報から元の答えを取り出すこと
    デコードでき
  • 精度結果がどれだけ正しいかの割合

ヒント:記事中の強調表示された単語にマウスオーバー/フォーカス/タップすると、その場で簡単な意味が表示されます。

ディスカッション用の質問

  • ICoTが中間値を内部に符号化することは、モデルの動作にどんな利点を与えると思いますか。理由も書いてください。
  • 簡単な訓練目標を追加するだけで二層モデルの精度が上がりました。これを使うときの利点と注意点は何でしょうか。
  • 訓練法の違いが注意の使い方や計算戦略を変えるとあります。日常で使うアプリにどんな影響がありそうですか。

関連記事