Ricercatori hanno analizzato oltre 43,000 avvisi di sicurezza sul web e hanno trovato molti casi di codice insicuro creato con strumenti di intelligenza artificiale come Claude, Gemini e GitHub Copilot. Questo fenomeno viene chiamato "vibe coding".
Il Vibe Security Radar, sviluppato dallo SSLab della Georgia Tech, scansiona database pubblici di vulnerabilità per trovare errori e cerca firme degli strumenti AI. Se le firme non ci sono, il radar non può segnalare il caso. I ricercatori consigliano di rivedere sempre il codice generato dall'AI e di usare strumenti per verificarne la sicurezza.
Parole difficili
- ricercatore — persona che studia e analizza dati o fenomeniRicercatori
- avviso — messaggio che informa di un problema o rischioavvisi
- vulnerabilità — punto debole che permette un attacco o errore
- scansionare — controllare dati o file uno per unoscansiona
- firma — traccia o elemento che identifica uno strumentofirme
- segnalare — avvisare o indicare che c'è un problema
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Hai mai visto o usato codice generato dall'intelligenza artificiale?
- Perché è importante rivedere il codice generato dall'AI?
- Quali strumenti useresti per verificare la sicurezza del codice?
Articoli correlati
Internet decente fuori portata per molti paesi a basso e medio reddito
Un rapporto avverte che la maggior parte delle persone nei paesi a basso e medio reddito non ha accesso a una connessione internet davvero utile. Serve 4G, uno smartphone e uso quotidiano per partecipare a istruzione, lavoro e salute online.
I modelli linguistici cambiano giudizio se conoscono l'autore
Ricercatori dell'University of Zurich mostrano che i grandi modelli linguistici valutano diversamente lo stesso testo quando viene indicata l'identità dell'autore. Lo studio rileva pregiudizi nascosti, incluso un forte bias anti‑cinese.
NeuroBridge: intelligenza artificiale per capire la comunicazione autistica
Ricercatori di Tufts hanno creato NeuroBridge, uno strumento di intelligenza artificiale che aiuta le persone non autistiche a comprendere e adattare la propria comunicazione verso persone autistiche. Lo strumento mostra alternative di risposta e ha ricevuto riscontri positivi.
Più infiammazione, più preferenza per i social media
Una ricerca guidata da David Lee e pubblicata su Scientific Reports trova che livelli più alti di infiammazione (misurata con la proteina C-reattiva) sono collegati a una preferenza per l'interazione via social media rispetto agli incontri di persona.