L'AI e i rischi per le persone LGBTQ+CEFR B2
18 nov 2025
Adattato da Aaron Spitler, Global Voices • CC BY 3.0
Foto di Igor Omilaev, Unsplash
L'intelligenza artificiale è sempre più integrata nella vita quotidiana. Un sondaggio globale di Ipsos ha rilevato che 55 percent delle persone intervistate vede più vantaggi che svantaggi nell'AI. Negli ultimi dieci anni gli investimenti privati in questo settore sono cresciuti molto e molte aziende sottolineano l'efficienza e la facilità d'uso degli strumenti basati su AI. Tuttavia permangono preoccupazioni significative sui possibili danni della tecnologia.
I timori sono acuti nelle comunità LGBTQ+. Wired ha documentato che alcuni generatori di immagini, come Midjourney, hanno prodotto rappresentazioni riduttive e dannose quando sono stati usati per raffigurare persone LGBTQ+. Questo succede perché i dati raccolti su Internet possono includere stereotipi e i modelli addestrati su quei dati tendono a riprodurli. L'UNESCO ha esaminato i presupposti di diversi modelli e ha rilevato che strumenti largamente usati, come Llama 2 di Meta e GPT-2 di OpenAI, mostrano atteggiamenti eteronormativi e generano contenuti negativi sulle persone gay più della metà delle volte.
I rischi non si limitano agli output digitali. Forbidden Colours, ONG belga per i diritti LGBTQ+, ha spiegato che i sistemi di riconoscimento automatico del genere (AGR) analizzano materiale audio-visivo e usano tratti del volto o schemi vocali per inferire il genere. Secondo l'ONG non è possibile sapere come una persona comprende il proprio genere solo da queste misure, e tali sistemi sono fuorvianti e potenzialmente pericolosi. In aggiunta, Politico Europe ha riportato che il primo ministro Viktor OrbE1n ha autorizzato il monitoraggio biometrico abilitato all'AI durante eventi locali del Pride, una misura che permette a governo e forze dell'ordine di sorvegliare artisti, attivisti e cittadini; le istituzioni dell'Unione Europea stanno esaminando la politica.
Gli attivisti chiedono cambiamenti concreti per ridurre i danni e aumentare l'equità dell'AI. Richiedono collaborazione tra sviluppatori e portatori di interesse LGBTQ+, maggiori garanzie contro l'uso abusivo della sorveglianza e il divieto di sistemi che rilevino o classificano il genere. Sostengono inoltre che il contributo delle persone LGBTQ+ debba essere richiesto in tutte le fasi di sviluppo degli strumenti, per rendere l'AI più utile e giusta per più persone.
Parole difficili
- integrato — inserito e usato all'interno di un sistema o processointegrata
- sondaggio — indagine che raccoglie opinioni di molte persone
- investimento — uso di denaro per ottenere futuro beneficio economicoinvestimenti
- efficienza — capacità di fare più risultati con meno risorse
- stereotipo — idea semplificata e spesso falsa su un gruppostereotipi
- addestrare — insegnare a una macchina a riconoscere schemiaddestrati
- eteronormativo — che assume l'eterosessualità come norma socialeeteronormativi
- riconoscimento — azione di identificare una persona o caratteristica
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Quali rischi principali per le persone LGBTQ+ sono descritti nell'articolo? Spiega con esempi del testo.
- In che modo lo sviluppo degli strumenti AI potrebbe diventare più equo secondo gli attivisti?
- Pensi che sia giusto vietare sistemi che rilevano o classificano il genere? Argomenta la tua risposta con motivi tratti dall'articolo.
Articoli correlati
Nuovo materiale che usa la luce per pulire l'acqua
Un team ha sviluppato un materiale che, attivato dalla luce, degrada vari inquinanti nell'acqua, incluse le PFAS. Il materiale è metal‑free, combina strutture porose con un film di nitruro di boro e ha mostrato stabilità nei test.