Esploristoj de Brown University faris studon, prezentitan ĉe la Internacia Konferenco pri Lernaj Reprezentoj en Rio de Janeiro, por testi ĉu modernaj lingvaj modeloj enkodigas scion pri la reala mondo. Michael Lepori, PhD‑kandidato ĉe Brown, diras ke la studo trovis "iun indicon ke lingvaj modeloj enkodigis ion similan al la kaŭzaj limigoj de la reala mondo."
Por testi tion, la teamo desegnis eksperimenton kun frazoj kiuj priskribas okazaĵojn kun malsama plausibleco: ekzemple malvarmigi trinkaĵon per glacio (ofta), per neĝo (neverŝajna), per fajro (neebla) kaj per la vorto "hieraŭ" (sensenca). Por ĉiu frazo la esploristoj ekzamenis la internajn matematikajn statojn de la AI, procedo nomata mekanista interpretado.
La eksperimento funkciis tra pluraj malfermfontecaj modeloj por resti model-agnostic, inkluzive de iuj vaste konataj modeloj. Ili trovis ke sufiĉe grandaj modeloj evoluigis apartajn internajn vektorojn por la plausiblecaj kategorioj, kaj tiuj vektoroj kongruis kun la disdividitaj homaj juĝoj en enketo.
Malfacilaj vortoj
- esploristo — persono kiu faras sciencan studonEsploristoj
- enkodigi — enmeti scion kiel internan reprezenton en sistemonenkodigas, enkodigis
- limigo — io kiu malhelpas aŭ restriktas okazon aŭ agadonlimigoj
- plausableco — kiom io ŝajnas verŝajna aŭ ebla
- interpretado — procedo por rigardi internajn statojn de modelo
- vektoro — matematikaj objektoj kiuj enhavas informojnvektorojn
Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.
Diskutaj demandoj
- Kion signifas por vi, ke modeloj "enkodigis ion similan al la kaŭzaj limigoj de la reala mondo"? Klarigu mallonge.
- Kiel vi mem proverus ĉu frazo estas plausa en reala vivo? Donu unu konkreta ekzemplo.
- Ĉu vi opinias, ke uzado de malfermfontecaj modeloj estas grava por tia studo? Kial aŭ kial ne?