IA e pornografia: rischi per le persone LGBTQ+CEFR B2
2 apr 2026
Adattato da Guest Contributor, Global Voices • CC BY 3.0
Foto di franco alva, Unsplash
L'intelligenza artificiale ha reso semplice creare immagini e video per adulti dall'aspetto realistico, e questo ha cambiato il panorama online. Nel 2025 Pornhub ha riferito che "Lesbian" era la sua categoria più vista e "Transgender" la seconda; le ricerche per "AI porn generators" sono aumentate e un sito ha registrato 8,57 milioni di visitatori a gennaio.
Molti strumenti per la produzione di materiale pornografico con l'IA non si basano sulla somiglianza di una sola persona ma su ampi insiemi di dati di contenuti esistenti per addestrare i modelli e generare nuovi video su richiesta. Ricercatrici come Aurélie Petit definiscono gran parte dei contenuti come "media non fotorealistici", una categoria che molte piattaforme e normative non coprono chiaramente. Miranda Wei ha messo in guardia sul fatto che i dataset possono includere immagini d'odio o non consensuali.
Alcune leggi affrontano i deepfake: il Congresso degli Stati Uniti ha approvato il TAKE IT DOWN Act che vieta la pubblicazione di immagini intime non consensuali; in Tennessee condividere deepfake è considerato un reato grave; in California il governatore Gavin Newsom ha firmato una legge per chiedere il watermarking. Al di fuori di questi casi, la pornografia generata dall'IA resta spesso in una zona giuridica grigia.
Ricercatori e attivisti segnalano danni specifici per le persone LGBTQ+ e per i minori. Siti come CreateAIShemale offrono ampie personalizzazioni — età, parti del corpo, modificatori e 42 opzioni di "razza", alcune descritte come "goblin" o "green skin" — strumenti che, secondo gli studiosi, fetishizzano e oggettivano le donne trans e possono celebrare la violenza. L'IA amplifica anche immagini irrealistiche di uomini gay; nel 2025 Pornhub ha riportato "femboy" e "twink" come ricerche gay principali e ricerche per termini come "cute femboy" sono aumentate del 79 percento. UNICEF ha rilevato nel 2026 che in 11 paesi almeno 1,2 milioni di bambini hanno detto che le loro immagini sono state manipolate in deepfake sessuali nell'ultimo anno. Esperti avvertono anche che, nonostante molti modelli dichiarino regole di sicurezza (le politiche di ChatGPT vietano attività illecite e violenza sessuale), attori in malafede possono aggirarle: a partire da dicembre 2025 è emerso che Grok ha prodotto e condiviso oltre 1,8 milioni di immagini sessualizzate di donne.
Parole difficili
- deepfake — immagine o video falsificato che sembra reale
- watermarking — aggiungere un marchio visibile o invisibile
- dataset — insieme di dati usati per addestrare modelli
- consensuale — con il permesso libero della persona coinvoltanon consensuali
- zona giuridica grigia — area senza regole legali chiare
- oggettivare — trattare come oggetto, senza rispettooggettivano
- malafede — cattiva intenzione o comportamento ingannevole
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Quali misure legali o tecniche, presenti nell'articolo, ti sembrano più efficaci per limitare i contenuti non consensuali? Perché?
- In che modo strumenti con molte opzioni di personalizzazione possono danneggiare gruppi come le persone trans, secondo il testo?
- Quali responsabilità dovrebbero avere le piattaforme e gli sviluppatori di modelli IA per prevenire contenuti sessualizzati e manipolazioni di immagini?