📖+10 XP
🎧+10 XP
✅+15 XP
Nivelo A1 – KomencantoCEFR A1
2 min
62 vortoj
- Grandaj lingvmodeloj malfortas pri simpla multiplikado.
- La tasko estas multobligi kvarciferajn nombrojn.
- Normalaj trejnmetodoj ne memoras interajn rezultojn.
- Modeloj lernas surfacajn ŝablonojn en trejnado.
- Tio malhelpas ĝustan longan kalkuladon poste.
- Nova metodo nomiĝas ICoT.
- ICoT lernas konservi kaj reuzi interajn valorojn.
- ICoT helpas atingi ĝustajn finajn respondojn.
- Ili uzas atenton por konservi cifern-parajn produktojn.
- La esplorado montris ke nova trejnado helpas.
Malfacilaj vortoj
- lingvmodelo — programo kiu prilaboras tekstojn kaj lingvonlingvmodeloj
- multiplikado — matematika operacio por multobligi nombrojn
- trejnmetodo — la maniero kiel oni trejnas modelontrejnmetodoj
- ŝablono — ripeta formo aŭ strukturo en datumojŝablonojn
- konservi — teni ion por uzi ĝin poste
- atento — mense fokusiĝi sur specifa informoatenton
Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.
Diskutaj demandoj
- Ĉu vi povas bone multobligi?
- Ĉu vi uzas atenton kiam vi kalkulas?
Rilataj artikoloj
17 Feb 2026
31 Mar 2026
16 Feb 2026
28 Dec 2025
2 Dec 2025
Sensiloj kaj AI por monitori sanon ĉe ALS
Grupo ĉe la University of Missouri testas sistemon kiu kombinas hejmajn sensilojn kaj artefaritan inteligentecon por sekvi sanŝanĝojn ĉe homoj kun ALS. La teamo validigas la datumojn kaj poste uzos prognozajn modelojn kaj klinikajn alarmojn.