Deepfake sessuali e intelligenza artificiale in BrasileCEFR B2
28 apr 2026
Adattato da Fernanda Canofre, Global Voices • CC BY 3.0
Foto di KOBU Agency, Unsplash
In Brasile sono emersi diversi episodi che mostrano come l'intelligenza artificiale possa essere usata per creare immagini sessuali non consensuali. I casi citati includono denunce a Rio de Janeiro contro adolescenti che realizzavano e condividevano nudi generati con l'AI di compagni, sospetti casi in Bahia e l'espulsione di studenti in Mato Grosso dopo la diffusione di immagini create con l'AI di un'insegnante e di alunni in comunità online di pornografia.
All'inizio di aprile 2026 l'istituto di ricerca indipendente Internetlab ha pubblicato una nota tecnica che documenta la violenza online contro donne e ragazze. Il documento avverte che database e set di addestramento possono contenere bias e che gli strumenti di AI possono riprodurre o amplificare la violenza di genere. Uno studio citato indica che i deepfake a contenuto sessuale rappresentano la maggioranza dei video deepfake e che le persone prese di mira sono per lo più donne; lo stesso studio segnala un forte aumento dei deepfake sessuali tra il 2022 e il 2023.
Internetlab propone diverse misure concrete per ridurre il rischio: integrazione di meccanismi di safety-by-design nelle piattaforme, considerare i deepfake sessuali non consensuali come «rischio eccessivo» e vietarne l'uso, linee guida curriculari per l'alfabetizzazione digitale e norme più chiare sulla responsabilità e gli obblighi delle piattaforme. Queste misure mirano anche a contrastare i bias nei set di addestramento.
Il dibattito pubblico è vivace: la Corte Suprema Federale nel 2025 ha parzialmente annullato un articolo del Marco Civil relativo alla responsabilità delle piattaforme, e sono aumentate le proposte di legge per criminalizzare comportamenti misogini. Internetlab e la direttrice Clarice Tavares mettono in guardia sul fatto che chatbot e strumenti come Gemini, ChatGPT e Claude potrebbero essere impiegati in modi che riproducono bias di genere e violenza politica contro le donne, e rimane incerto con quale rapidità nuove leggi o regole delle piattaforme potranno fermare tali danni.
Parole difficili
- intelligenza artificiale — tecnologia che simula capacità cognitive umane
- deepfake — video o immagine falsificata con intelligenza artificialevideo deepfake, deepfake sessuali
- bias — pregiudizio nei dati o negli algoritmi
- addestramento — processo di preparazione dei modelli con datiset di addestramento
- safety-by-design — progettare sistemi con misure di sicurezza integrate
- responsabilità — dovere di rispondere per azioni o danni
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Quali difficoltà pratiche potrebbero incontrare le piattaforme nel mettere in atto misure di safety-by-design?
- In che modo l'alfabetizzazione digitale nelle scuole potrebbe aiutare a prevenire la diffusione di deepfake sessuali tra adolescenti?
- Secondo te, come si potrebbero chiarire le norme sulla responsabilità delle piattaforme senza limitare la libertà di espressione?
Articoli correlati
Società civile, intelligenza artificiale e resistenza
Global Voices e IRIS hanno raccolto 10 studi di caso su come gruppi in diverse regioni usano, contrastano o reinventano la tecnologia. Gli studi mostrano esempi concreti, flessibilità dei gruppi e la necessità di reti e sostegno.
Indagine globale sul giornalismo scientifico durante la pandemia
Un rapporto di SciDev.Net analizza le condizioni di lavoro dei giornalisti scientifici in tutto il mondo. Il sondaggio mostra aumento del carico di lavoro, uso di materiale non revisionato e opinioni contrastanti sulla professione.