L'intelligenza artificiale rende semplice creare deepfake, cioè foto, video o audio falsi che possono ingannare le persone. Per questo un gruppo di ricercatori ha progettato un sensore che appone una firma digitale quando il file viene catturato.
La firma dimostra da quale dispositivo proviene il file e quando è stato registrato. Se qualcuno modifica il file dopo la cattura, la firma lo segnala. Le firme possono essere messe in un registro pubblico immutabile, per esempio una blockchain, così chiunque può confrontare e verificare un file.
Esiste già un prototipo, ma serve ulteriore sviluppo prima dell'uso commerciale e i ricercatori studiano come ridurre i costi.
Parole difficili
- deepfake — file con immagini, video o audio falsi
- sensore — dispositivo che registra informazioni o segnali
- firma digitale — codice elettronico che prova origine e integrità
- registro — elenco dove si conservano informazioni in ordine
- immutabile — che non si può cambiare o cancellare
- prototipo — versione iniziale di un prodotto per testare
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Ti preoccupa che i deepfake possano ingannare le persone? Perché?
- Secondo te, una firma digitale è utile per verificare un file? Spiega brevemente.
- Perché i ricercatori vogliono ridurre i costi del prototipo?
Articoli correlati
IA in America Latina per contrastare violenza e disuguaglianze
Gruppi latinoamericani sviluppano sistemi di intelligenza artificiale aperti e locali per studiare la violenza e le disuguaglianze di genere. Strumenti come AymurAI proteggono dati sensibili e forniscono prove a governi e società civile.
Tagli agli aiuti e rischio per i servizi sanitari nel 2025
Nel 2025 grandi tagli agli aiuti internazionali hanno ridotto servizi sanitari e umanitari in molti paesi a basso e medio reddito. La sospensione di fondi da parte degli USA e tagli di altri paesi hanno causato interruzioni immediate e vulnerabilità diffuse.