LingVo.club
Nivelo
Kial grandaj lingvmodeloj malsukcesas pri kvarcifera multiplikado — Nivelo A2 — brown wooden blocks on white surface

Kial grandaj lingvmodeloj malsukcesas pri kvarcifera multiplikadoCEFR A2

29 Dec 2025

Nivelo A2 – Baza / elementa
2 min
95 vortoj

Sciencistoj gviditaj de teamo ĉe University of Chicago komparis normalan fajnan ĝustigon kun la metodo Implicit Chain of Thought (ICoT). Ili testis la modelojn pri kvarcifera multiplikado kaj rigardis kiel la trejnado influas la memorkapablon.

Sub normala fajna ĝustigo la modeloj havis tre malaltan precizecon, sed la ICoT-trejnita modelo atingis 100% precizecon. La esploristoj malĉifris la internajn ŝtatojn kaj trovis ke ICoT konservas kurantajn sumojn kaj partajn produktojn por poste uzi ilin.

Krome, aldonado de trejna celo por spuri kurantajn sumojn levis precizecon de simpla modelo al 99% sen eksplicita kateno-de-pensado-superrigardo.

Malfacilaj vortoj

  • fajna ĝustigoŝanĝo de parametroj de modelo por plibonigi
  • trejnadoproceso por instrui aŭ adapti maŝinan modelon
  • precizecogrado de ĝusteco aŭ korekteco en rezultoj
    precizecon
  • memorkapablokapablo memori informojn en la modelo
    memorkapablon
  • sumonumero aŭ valoro kiu estas sumigita
    sumojn
  • malĉifrimalkovri signifon aŭ strukturon de sekreto aŭ kodo
    malĉifris

Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.

Diskutaj demandoj

  • Ĉu vi opinias ke modelo devas konservi kurantajn sumojn por solvi kalkulojn? Kial aŭ kial ne?
  • Ĉu 99% precizeco sufiĉas por taskoj kun nombroj en via vivo? Mallonge klarigu.
  • Kiel vi memoras longajn nombrojn: skribante ilin aŭ uzante iun aparaton? Mallonge priskribu.

Rilataj artikoloj