Ricercatori di cybersecurity della Georgia Tech hanno individuato una nuova vulnerabilità chiamata VillainNet nelle cosiddette «super network» di intelligenza artificiale usate dalle auto a guida autonoma. Le super network funzionano scambiando piccole sottoreti per compiti diversi, come gestire la pioggia, il traffico o i cambi di corsia.
Il dottorando David Oygenblik, ricercatore principale, spiega che un attaccante può nascondere una backdoor dentro una di queste sottoreti. La backdoor resta dormiente finché non viene scelta una sottorete molto specifica; quando quella condizione si presenta, la backdoor si attiva e può prendere il controllo del veicolo, per esempio in un taxi che reagisce a condizioni variabili.
Nelle sperimentazioni l'attacco VillainNet ha quasi sempre avuto successo una volta attivato: i ricercatori riportano un tasso di successo del 99% per attacchi attivati. Inoltre la backdoor restava invisibile all'interno del sistema IA completo e rilevarla richiederebbe molto più tempo e risorse rispetto ai metodi attuali.
Il team avverte che la minaccia può essere inserita in qualsiasi fase di sviluppo e che servono nuove misure di sicurezza per le super network. Il progetto è stato presentato all'ACM CCS nell'ottobre 2025.
Parole difficili
- vulnerabilità — punto debole in un sistema informatico
- super network — rete di intelligenza artificiale che scambia sottoreti
- sottorete — parte piccola di una rete più grandesottoreti
- backdoor — accesso nascosto che permette controllo del sistema
- attaccante — persona che cerca di compromettere un sistema
- attivare — fare iniziare a funzionare qualcosasi attiva, attivato
- tasso — misura percentuale che indica frequenza o successo
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Quali nuovi tipi di misure di sicurezza potrebbero aiutare a proteggere le super network?
- Ti fideresti di un taxi a guida autonoma dopo aver letto questo articolo? Perché sì o no?
- In quale fase dello sviluppo di un sistema pensi sia più facile inserire una minaccia e come si potrebbe controllare?
Articoli correlati
AI per addestrare studenti di chirurgia alle suture
Ricercatori della Johns Hopkins hanno creato uno strumento di intelligenza artificiale che allena gli studenti di medicina nelle suture. L'AI fornisce feedback immediato confrontando i movimenti degli studenti con quelli degli esperti.
AI e foto di cittadini identificano Anopheles stephensi a Madagascar
Ricercatori hanno usato l'intelligenza artificiale e foto inviate da cittadini per identificare quello che ritengono sia il primo Anopheles stephensi a Madagascar. L'OMS avverte che questa specie rappresenta una minaccia per il controllo della malaria in Africa.
Nuovo strumento a luce per misurare le cellule cerebrali
Ricercatori hanno sviluppato CaBLAM, uno strumento che usa la bioluminescenza per registrare l'attività dentro cellule cerebrali viventi. Permette registrazioni di ore senza luce esterna e funziona in modelli animali come topi e zebrafish.