Ricercatori di cybersecurity della Georgia Tech hanno individuato una nuova vulnerabilità chiamata VillainNet nelle cosiddette «super network» di intelligenza artificiale usate dalle auto a guida autonoma. Le super network funzionano scambiando piccole sottoreti per compiti diversi, come gestire la pioggia, il traffico o i cambi di corsia.
Il dottorando David Oygenblik, ricercatore principale, spiega che un attaccante può nascondere una backdoor dentro una di queste sottoreti. La backdoor resta dormiente finché non viene scelta una sottorete molto specifica; quando quella condizione si presenta, la backdoor si attiva e può prendere il controllo del veicolo, per esempio in un taxi che reagisce a condizioni variabili.
Nelle sperimentazioni l'attacco VillainNet ha quasi sempre avuto successo una volta attivato: i ricercatori riportano un tasso di successo del 99% per attacchi attivati. Inoltre la backdoor restava invisibile all'interno del sistema IA completo e rilevarla richiederebbe molto più tempo e risorse rispetto ai metodi attuali.
Il team avverte che la minaccia può essere inserita in qualsiasi fase di sviluppo e che servono nuove misure di sicurezza per le super network. Il progetto è stato presentato all'ACM CCS nell'ottobre 2025.
Parole difficili
- vulnerabilità — punto debole in un sistema informatico
- super network — rete di intelligenza artificiale che scambia sottoreti
- sottorete — parte piccola di una rete più grandesottoreti
- backdoor — accesso nascosto che permette controllo del sistema
- attaccante — persona che cerca di compromettere un sistema
- attivare — fare iniziare a funzionare qualcosasi attiva, attivato
- tasso — misura percentuale che indica frequenza o successo
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Quali nuovi tipi di misure di sicurezza potrebbero aiutare a proteggere le super network?
- Ti fideresti di un taxi a guida autonoma dopo aver letto questo articolo? Perché sì o no?
- In quale fase dello sviluppo di un sistema pensi sia più facile inserire una minaccia e come si potrebbe controllare?
Articoli correlati
Un metodo per rendere l'AI più sostenibile
Ricercatori propongono Federated Carbon Intelligence (FCI) per ridurre le emissioni dei data center e proteggere i server, collegando dati ambientali e stato delle macchine. Simulazioni mostrano riduzioni importanti e ora si punta a test reali.
Polemica per le parole di Luciano Huck al Parque Indígena do Xingu
Un clip pubblicato su Instagram mostra Luciano Huck chiedere di «ripulire» la cultura durante una registrazione al Parque Indígena do Xingu. Organizzazioni indigene, tra cui Apib, hanno criticato il gesto e difendono l'accesso alla tecnologia.
Studio mostra come cambia l'attività del cervello durante il giorno
Nuovi metodi sperimentali e computazionali usati su topi rivelano, a singola cellula, uno spostamento dell'attività dal centro del cervello verso la corteccia nel corso del ciclo quotidiano. I ricercatori sperano di trovare firme della fatica adattabili anche a dati umani.