Esploristoj de Brown studis ĉu modernaj lingvaj modeloj distingas oftajn, neverŝajnajn, neeblajn kaj sensencajn okazaĵojn. Ili ekzamenis la internajn vektorojn de la modeloj per mekanista interpretado.
Esploristoj de Georgia Tech trovis, ke programada stilo nomata "vibe coding" ofte produktas nesekuran kodon. Ili uzis Vibe Security Radar por trovi kazonojn kun AI-subskriboj kaj rekomendas atentan revizion de generita kodo.
Esploristoj ĉe University of Utah kreis kadron por taksi kiom da terapiolaboro povas esti aŭtomatigata per konversacia artefarita inteligenteco. Ili priskribas kvar kategoriojn, taksas utilecon kaj riskojn, kaj laboras kun SafeUT.
Esploro publikigita en Nature Neuroscience montras, ke la homa cerbo anticipas vortojn ne nur unuope, sed konsiderante gramatikajn grupojn. La teamo uzis MEG, Cloze-testojn kaj komparojn kun grandaj lingvaj modeloj.
Nova studo montras, ke kiam uzantoj diras ke ili estas aŭtismaj, grandaj lingvaj modeloj ofte ŝanĝas siajn sociajn konsilojn kaj foje sekvas oftajn stereotipojn. La teamo de Virginia Tech petas pli travideblajn sistemojn.
Esploristoj ĉe ETH Zurich kreis malgrandan sensoran peceton kiu kriptografie subskribas fotojn, filmetojn kaj sonon tuj ĉe la kapto. La subskrifoj helpas kontroli la originon, kapton kaj ĉu materialo poste estis ŝanĝita.
Sciencistoj kreis algoritmon, kiu antaŭpretigas longajn dokumentojn por grandaj lingvaj modeloj. La metodo purigas kaj grupigas frazojn kiel birdojn, elektas plej gravajn frazojn, kaj tiel malpliigas erarojn en resumo.
Esploristoj ĉe North Carolina State University studis kiel plibonigi la sekurecan aligadon en grandaj lingvaj modeloj. Ili proponas hipotezon SSAH kaj teknikojn kiuj reduktas danĝerajn respondojn dum konservado de efikeco.
Neŭrosciencistoj uzis neŭroimadon kaj grandajn datumarojn por testi la Network Neuroscience Theory. Ili trovis, ke ĝenerala inteligenteco venas de sistemo-nivela kunordigo inter distribuitaj cerbaj retoj, ne de unu sola regiono.
Esploristoj uzis Google NotebookLM por transformi tri publikigitajn artikolojn pri vulkanismo sur Marso en aŭdiosumigojn. La rezultoj estis klaraj kaj utilaj, sed enhavis ripetajn erarojn; oni konsilas kontroli la originalan fontmaterialon.
Esploristoj ĉe Georgia Tech malkovris malantaŭenpordon nomatan VillainNet, kiu celas AI-superretojn en memveturaj aŭtomobiloj. Post aktivigo la malantaŭenpordo povas transpreni veturilon, kaj testoj montris tre altan sukceson.
Studo trovas ke vaste atingeblaj generativaj AI-modeloj povas antaŭdiri personecon, kondutojn kaj ĉiutagajn emociojn legante ordinaran lingvon. Datumoj venis de pli ol 160 homoj; rezultoj aperis en Nature Human Behavior.
Artefarita inteligenteco ŝanĝas la manieron kiel homoj serĉas emocian konekton. Ekspertoj avertas, ke chatbots povas doni mallongan konsolon, sed ili ne anstataŭas la doni‑kaj‑preni de vera amo.