LingVo.club
Nivelo
Kial grandaj lingvmodeloj malsukcesas pri kvarcifera multiplikado — Nivelo B2 — brown wooden blocks on white surface

Kial grandaj lingvmodeloj malsukcesas pri kvarcifera multiplikadoCEFR B2

29 Dec 2025

Nivelo B2 – Supra meza nivelo
5 min
266 vortoj

Nova esplorado klarigas kial modernaj grandaj lingvmodeloj malfortas pri la ŝajne simpla tasko de multobligado de du kvarciferaj nombroj. Gviditaj de Xiaoyan Bai kaj Chenhao Tan ĉe University of Chicago, kun kunlaborantoj de MIT, Harvard University, University of Waterloo kaj Google DeepMind, la esploristoj komparis norman fajnan ĝustigon kun la trejnmetodo Implicit Chain of Thought (ICoT).

La teamo fokusis al longdistancaj dependecoj, kie modelo devas konservi partajn produktojn kaj kurantajn sumojn por elpensi ĝustan finan respondon. Sub normala fajna ĝustigo, modeloj kun du ĝis 12 tavoloj atingis malpli ol 1% precizecon, kio montras ke ili falas en loka optimumo kaj simple lernas surfacajn ŝablonojn en la trejna datumaro.

Male, la ICoT-trejnita modelo atingis 100% precizecon. Sondado de internaj ŝtatoj rivelis ke ICoT kodas interajn valorojn kaj organizas atenton en apartaj padoj tra la tempo: fruaj tavoloj kalkulas kaj konservas cifern-parajn produktojn en difinitaj lokoj, kaj pli malfruaj tavoloj reprenas tiujn valorojn por formi ĉiun ciferecon de la fina respondo. La teamo ankaŭ observis ke la modelo reprezentas ciferojn per Fourier-similaj bazoj kaj ke geometra operacio simila al Minkowski-sumo formiĝis dum trejnado.

Por testi simplan ŝanĝon, la esploristoj aldonis trejnan celon kiu instruas al la modelo spuri kurantajn sumojn ĉe ĉiu paŝo. Aldoni ĉi tiun celon al du-tavola modelo levis precizecon al 99% sen eksplicita kateno-de-pensado-superrigardo; la modelo evoluigis atentajn mekanismojn similajn al ICoT kaj novajn strategiojn por spuri plurajn cifern-parojn. La studo emfazas, laŭ Tan, ke ĉar AI estas pli integrita en kritikaj decidoj, estas esence kompreni ĝiajn manierojn de lernado kaj pensado.

Fonto: University of Chicago

Malfacilaj vortoj

  • dependecorilato kie unu parto influas alian
    dependecoj
  • ĝustigoŝanĝo aŭ agordo por plibonigi funkcion
    fajnan ĝustigon
  • trejnmetodospecifa maniero por instrui modelon
  • precizecokiom ofte respondoj estas ĝustaj
    precizecon
  • atentomekanismo por fokusi rilatajn informojn
    atenton, atentajn
  • kodistoki aŭ reprezenti informojn per signoj
    kodas
  • sumototala valoro akumuliĝanta per adicio
    sumojn
  • evoluigikrei aŭ disvolvi novajn kapablojn aŭ strukturojn
    evoluigis

Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.

Diskutaj demandoj

  • Kial, laŭ la teksto, estas grave kompreni la lernadon kaj pensado de AI kiam ĝi estas uzata en kritikaj decidoj?
  • Kiel ICoT organizis la laboron inter fruaj kaj malfruaj tavoloj? Donu mallongan priskribon bazitan sur la artikolo.
  • Ĉu aldonado de simplaj trejnaj celoj, kiel spuri kurantajn sumojn, povus esti utila en aliaj taskoj? Klarigu per mallonga argumento aŭ ekzemplo.

Rilataj artikoloj