LingVo.club
📖+30 XP
🎧+20 XP
+35 XP
IA e pornografia: rischi per le persone LGBTQ+ — Livello B1 — man in black t-shirt using black laptop computer

IA e pornografia: rischi per le persone LGBTQ+CEFR B1

2 apr 2026

Adattato da Guest Contributor, Global Voices CC BY 3.0

Foto di franco alva, Unsplash

Livello B1 – Intermedio
4 min
228 parole

L'intelligenza artificiale ha reso facile creare immagini e video per adulti dall'aspetto realistico. Nel 2025 Pornhub ha riferito che "Lesbian" era la categoria più vista e "Transgender" la seconda. Le ricerche su Google per "AI porn generators" sono aumentate e un sito ha ricevuto 8,57 milioni di visitatori a gennaio.

Molti strumenti non si basano sulla somiglianza di una sola persona: usano grandi dataset di contenuti esistenti per addestrare i modelli e poi generano nuovi video su richiesta. Ricercatrici come Aurélie Petit descrivono gran parte dei contenuti come "media non fotorealistici" e Miranda Wei avverte che i dataset possono includere immagini d'odio o non consensuali.

Alcune leggi già affrontano i deepfake: il Congresso USA ha approvato il TAKE IT DOWN Act contro immagini intime non consensuali, in Tennessee la condivisione può essere un felony, e in California il governatore ha firmato una legge che richiede watermarking. Fuori da questi casi, la pornografia generata dall'IA resta spesso in una zona giuridica grigia.

Ricercatori e attivisti segnalano danni specifici per le persone LGBTQ+. Siti come CreateAIShemale offrono molte personalizzazioni, tra cui 42 opzioni di "razza" alcune elencate come "goblin" o "green skin", strumenti che possono fetishizzare e oggettivare le donne trans. Inoltre, UNICEF ha rilevato nel 2026 che in 11 paesi almeno 1,2 milioni di bambini hanno detto che le loro immagini sono state manipolate in deepfake sessuali nell'ultimo anno.

Parole difficili

  • datasetinsieme di dati usati per addestrare modelli
  • deepfakeimmagine o video manipolato che sembra reale
  • watermarkingaggiunta di segni digitali per identificare contenuto
  • addestrareinsegnare a un modello a riconoscere dati
  • non consensualiazioni o immagini fatte senza il permesso
  • fetishizzaretrasformare in oggetto per eccitare sessualmente

Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.

Domande di discussione

  • Le leggi citate nel testo (per esempio TAKE IT DOWN Act o il watermarking) ti sembrano sufficienti? Perché sì o no?
  • In che modo le personalizzazioni offerte da alcuni siti possono danneggiare le donne trans o altre persone?
  • Quali misure pratiche proporresti per proteggere i bambini dalla manipolazione delle immagini in deepfake?

Articoli correlati