#Intelligenza Artificiale22
I modelli di linguaggio e la comprensione del mondo
Ricercatori hanno studiato se i moderni modelli di linguaggio capiscono la plausibilità di eventi reali. Hanno analizzato gli stati interni dei modelli e trovato segnali che corrispondono ai giudizi umani.
Foto di Zach M, Unsplash
Un quadro per l'automazione della terapia con IA
Ricercatori dell'Università dello Utah hanno proposto un quadro per valutare quanto la terapia può essere automatizzata con intelligenze artificiali conversazionali. Il lavoro definisce quattro livelli, valuta rischi e benefici e suggerisce prudenza.
Il cervello predice parole usando gruppi grammaticali
Una ricerca pubblicata su Nature Neuroscience mostra che il cervello anticipa le parole considerando gruppi grammaticali (costituenti), non solo la singola parola successiva. Lo studio ha usato MEG, test Cloze e dati in mandarino e inglese.
Dire di essere autistico cambia i consigli dell'IA
Uno studio della Virginia Tech, presentato alla conferenza CHI, mostra che rivelare l'autismo modifica i suggerimenti dei grandi modelli linguistici, spesso seguendo stereotipi comuni. I ricercatori chiedono maggiore trasparenza nei sistemi IA.
Metodo ispirato agli stormi migliora i riassunti dell'AI
Ricercatori della New York University hanno creato un metodo che usa principi degli stormi di uccelli per scegliere frasi importanti e fornire input migliori ai modelli linguistici. Il sistema riduce le "allucinazioni" e migliora l'accuratezza dei riassunti.
Sicurezza dei modelli linguistici: ipotesi e tecnica
Ricercatori della North Carolina State University hanno studiato l'allineamento alla sicurezza nei grandi modelli linguistici, proposto la Superficial Safety Alignment Hypothesis (SSAH) e sperimentato il congelamento di componenti neurali per ridurre uscite non sicure mantenendo le prestazioni.
Audio da articoli scientifici: cosa mostra NotebookLM
Ricercatori hanno trasformato tre articoli sul vulcanismo marziano in riassunti audio con NotebookLM di Google. Le panoramiche sono chiare e utili per l'insegnamento, ma contengono errori; gli autori raccomandano di verificare sempre le fonti originali.
VillainNet: falla nelle auto a guida autonoma
Ricercatori della Georgia Tech hanno scoperto VillainNet, una backdoor nascosta nelle «super network» delle auto a guida autonoma che può attivarsi e prendere il controllo del veicolo. Lo studio è stato presentato all'ACM CCS nell'ottobre 2025.