LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
IA e pornografia: rischi per le persone LGBTQ+ — Livello B2 — man in black t-shirt using black laptop computer

IA e pornografia: rischi per le persone LGBTQ+CEFR B2

2 apr 2026

Adattato da Guest Contributor, Global Voices CC BY 3.0

Foto di franco alva, Unsplash

Livello B2 – Intermedio-avanzato
7 min
361 parole

L'intelligenza artificiale ha reso semplice creare immagini e video per adulti dall'aspetto realistico, e questo ha cambiato il panorama online. Nel 2025 Pornhub ha riferito che "Lesbian" era la sua categoria più vista e "Transgender" la seconda; le ricerche per "AI porn generators" sono aumentate e un sito ha registrato 8,57 milioni di visitatori a gennaio.

Molti strumenti per la produzione di materiale pornografico con l'IA non si basano sulla somiglianza di una sola persona ma su ampi insiemi di dati di contenuti esistenti per addestrare i modelli e generare nuovi video su richiesta. Ricercatrici come Aurélie Petit definiscono gran parte dei contenuti come "media non fotorealistici", una categoria che molte piattaforme e normative non coprono chiaramente. Miranda Wei ha messo in guardia sul fatto che i dataset possono includere immagini d'odio o non consensuali.

Alcune leggi affrontano i deepfake: il Congresso degli Stati Uniti ha approvato il TAKE IT DOWN Act che vieta la pubblicazione di immagini intime non consensuali; in Tennessee condividere deepfake è considerato un reato grave; in California il governatore Gavin Newsom ha firmato una legge per chiedere il watermarking. Al di fuori di questi casi, la pornografia generata dall'IA resta spesso in una zona giuridica grigia.

Ricercatori e attivisti segnalano danni specifici per le persone LGBTQ+ e per i minori. Siti come CreateAIShemale offrono ampie personalizzazioni — età, parti del corpo, modificatori e 42 opzioni di "razza", alcune descritte come "goblin" o "green skin" — strumenti che, secondo gli studiosi, fetishizzano e oggettivano le donne trans e possono celebrare la violenza. L'IA amplifica anche immagini irrealistiche di uomini gay; nel 2025 Pornhub ha riportato "femboy" e "twink" come ricerche gay principali e ricerche per termini come "cute femboy" sono aumentate del 79 percento. UNICEF ha rilevato nel 2026 che in 11 paesi almeno 1,2 milioni di bambini hanno detto che le loro immagini sono state manipolate in deepfake sessuali nell'ultimo anno. Esperti avvertono anche che, nonostante molti modelli dichiarino regole di sicurezza (le politiche di ChatGPT vietano attività illecite e violenza sessuale), attori in malafede possono aggirarle: a partire da dicembre 2025 è emerso che Grok ha prodotto e condiviso oltre 1,8 milioni di immagini sessualizzate di donne.

Parole difficili

  • deepfakeimmagine o video falsificato che sembra reale
  • watermarkingaggiungere un marchio visibile o invisibile
  • datasetinsieme di dati usati per addestrare modelli
  • consensualecon il permesso libero della persona coinvolta
    non consensuali
  • zona giuridica grigiaarea senza regole legali chiare
  • oggettivaretrattare come oggetto, senza rispetto
    oggettivano
  • malafedecattiva intenzione o comportamento ingannevole

Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.

Domande di discussione

  • Quali misure legali o tecniche, presenti nell'articolo, ti sembrano più efficaci per limitare i contenuti non consensuali? Perché?
  • In che modo strumenti con molte opzioni di personalizzazione possono danneggiare gruppi come le persone trans, secondo il testo?
  • Quali responsabilità dovrebbero avere le piattaforme e gli sviluppatori di modelli IA per prevenire contenuti sessualizzati e manipolazioni di immagini?

Articoli correlati

Giustizia climatica in Pakistan — Livello B2
11 gen 2026

Giustizia climatica in Pakistan

I tribunali del Pakistan riconoscono sempre più il diritto a un ambiente sano. Decisioni giudiziarie e interventi parlamentari avanzano, ma ostacoli finanziari, procedurali e di capacità limitano l’azione dei tribunali.