Come l'intelligenza artificiale generativa cambia la disinformazioneCEFR B2
14 nov 2025
Adattato da Metamorphosis Foundation, Global Voices • CC BY 3.0
Foto di Hartono Creative Studio, Unsplash
L'intervista pubblicata il 12 novembre 2025 su Antidisinfo.net e ripubblicata tramite accordi con Global Voices e Metamorphosis Foundation riporta le osservazioni di Laura Jasper del The Hague Centre for Strategic Studies sulle nuove minacce. Jasper spiega che l'intelligenza artificiale generativa cambia radicalmente la disinformazione, permettendo creazione e diffusione a velocità, scala e grado di personalizzazione senza precedenti.
Sull'attribuzione, la valutazione diventa probabilistica: gli attori ostili spesso ricorrono a proxy, false flag e strumenti commerciali, inclusa l'AI generativa, il che rende necessario assegnare livelli di confidenza (bassa, media, alta) e pubblicare le basi delle prove per conservare credibilità e favorire una conoscenza condivisa. Gli studi HCSS su Europa e Indo-Pacifico indicano una vulnerabilità comune dovuta alla dipendenza dalle piattaforme commerciali e a fratture della fiducia sociale come la polarizzazione.
Misurare il successo di una campagna straniera richiede di definire uno stato finale comportamentale osservabile e usare basi controfattuali per verificare il cambiamento. Jasper raccomanda di combinare dati quantitativi — sondaggi, dati di mobilità, registri di transazioni o partecipazione — con approfondimenti qualitativi da interviste e focus group. La resilienza si vede quando le società si riprendono rapidamente o quando i comportamenti attesi non si manifestano o rimbalzano.
Sulle cosiddette «zone grigie» legali, Jasper rifiuta metodi fuori legge e invita a un impegno ampio nella società. Attori locali come costruttori di comunità e giornalisti investigativi devono contribuire a ricostruire la fiducia; le risposte non devono arrivare solo dai livelli più alti del governo. Jasper cita lo studio Start with the End: Effect Measurement of Behavioural Influencing in Military Operations come base per questo approccio.
Parole difficili
- disinformazione — Diffusione intenzionale di notizie false
- generativo — Che produce contenuti tramite modelli di IAgenerativa
- attribuzione — Determinare chi è responsabile di un'azione
- confidenza — Grado di certezza su una valutazione
- controfattuale — Ipotesi su cosa sarebbe successo diversamentecontrofattuali
- resilienza — Capacità di riprendersi dopo una crisi
- polarizzazione — Divisione forte delle opinioni nella società
- zona grigia — Situazione legale incerta o non chiaramente regolatazone grigie
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Come potrebbe cambiare il ruolo dei giornalisti investigativi nella lotta alla disinformazione, secondo l'articolo?
- Quali vantaggi e limiti vedi nell'usare insieme dati quantitativi e approfondimenti qualitativi per misurare l'influenza di una campagna?
- In che modo la dipendenza dalle piattaforme commerciali può aumentare la vulnerabilità sociale o politica, secondo il testo?
Articoli correlati
Sensori e intelligenza artificiale per monitorare l'aria in Sudafrica
Scienziati sudafricani hanno creato AI_r, un sistema con sensori, Internet of Things e intelligenza artificiale per misurare la qualità dell'aria in tempo reale. Il progetto usa reti a basso costo e sta ampliando i sensori nel distretto di Sedibeng.
Nuovi strumenti AI per diagnosticare e monitorare la tubercolosi
Ricercatori hanno mostrato a Copenhagen, dal 18 al 21 novembre, diversi strumenti basati su intelligenza artificiale per rilevare e seguire la tubercolosi. Gli studi includono analisi del respiro, riconoscimento della tosse, mappatura della vulnerabilità e radiografie pediatriche.