レベル A2 – 基礎〜初中級CEFR A2
2 分
112 語
大学の研究チームは、最先端の大規模言語モデルが4桁の掛け算で失敗する理由を調べました。標準的なファインチューニングでは、2〜12層のモデルで精度が1%未満にとどまりました。
研究者たちは、Implicit Chain of Thought(ICoT)と呼ぶ別の訓練法を使いました。ICoTで訓練したモデルは中間の合計を保存し、100%の正解率を出しました。さらに、訓練目標に途中の合計を追うように加えるだけで、二層モデルの精度は99%まで上がりました。
難しい単語
- 大規模言語モデル — 大量のデータで学ぶ言語のモデル
- 最先端 — 今一番新しい技術や方法
- ファインチューニング — 既存モデルを目的に合わせて調整すること
- 訓練する — モデルに学習をさせる作業や方法訓練した
- 精度 — 結果や予測の正しさの割合
- 保存する — データや情報を後で使うために残すこと保存し
ヒント:記事中の強調表示された単語にマウスオーバー/フォーカス/タップすると、その場で簡単な意味が表示されます。
ディスカッション用の質問
- ICoTのように途中の合計を保存する方法についてどう思いますか?
- 授業や勉強で途中の計算を書くことはありますか?その理由は何ですか?
- あなたは大きな掛け算をするとき電卓を使いますか?使う・使わない理由を教えてください。