Esploristoj de Brown University kontrolis ĉu modernaj lingvaj modeloj havas ian komprenon pri la reala mondo. Ili klarigas, ke chatbotoj lernas el granda kvanto da interreta teksto, kiu enhavas faktojn, erarojn kaj sensencaĵojn.
La teamo montris al la modeloj frazojn kun malsama plausibleco, ekzemple trinkaĵon malvarmigita per glacio, per neĝo, per fajro aŭ per la vorto "hieraŭ". Por ĉiu frazo esploristoj rigardis la internajn matematikajn statojn, procedo nomata mekanista interpretado, kiu similas al "neŭroscienco por AI-sistemoj".
La eksperimento kuris tra pluraj malfermfontecaj modeloj por resti model-agnostic, kaj la esploristoj trovis internajn vektorojn kiuj rilatas al la plausiblecaj kategorioj. Tiuj vektoroj ankaŭ kongruis kun homaj juĝoj en enketo.
Malfacilaj vortoj
- esploristo — persono kiu studas kaj faras eksperimentojnEsploristoj
- lingva modelo — komputila programo por labori kun lingvolingvaj modeloj
- chatboto — programo kiu babilas kun uzantojchatbotoj
- plausibleco — kiom kredinda aŭ ebla estas io
- mekanista interpretado — analizo pri la internaj funkcioj de modelo
- vektoro — matematika objekto kun nombroj en vicovektorojn
- malfermfonteca — programo kun fontkodo havebla por ĉiujmalfermfontecaj
Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.
Diskutaj demandoj
- Ĉu vi iam uzis chatboton? Kion vi ŝatis aŭ ne ŝatis?
- Ĉu vi pensas, ke estas problemo se modeloj lernas el eraraj tekstoj? Kial?
- Kiel vi povus provi ĉu modelo vere komprenas la realan mondon?