LingVo.club
Livello
L'AI e i rischi per le persone LGBTQ+ — Livello B2 — a computer chip with the letter a on top of it

L'AI e i rischi per le persone LGBTQ+CEFR B2

18 nov 2025

Livello B2 – Intermedio-avanzato
6 min
340 parole

L'intelligenza artificiale è sempre più integrata nella vita quotidiana. Un sondaggio globale di Ipsos ha rilevato che 55 percent delle persone intervistate vede più vantaggi che svantaggi nell'AI. Negli ultimi dieci anni gli investimenti privati in questo settore sono cresciuti molto e molte aziende sottolineano l'efficienza e la facilità d'uso degli strumenti basati su AI. Tuttavia permangono preoccupazioni significative sui possibili danni della tecnologia.

I timori sono acuti nelle comunità LGBTQ+. Wired ha documentato che alcuni generatori di immagini, come Midjourney, hanno prodotto rappresentazioni riduttive e dannose quando sono stati usati per raffigurare persone LGBTQ+. Questo succede perché i dati raccolti su Internet possono includere stereotipi e i modelli addestrati su quei dati tendono a riprodurli. L'UNESCO ha esaminato i presupposti di diversi modelli e ha rilevato che strumenti largamente usati, come Llama 2 di Meta e GPT-2 di OpenAI, mostrano atteggiamenti eteronormativi e generano contenuti negativi sulle persone gay più della metà delle volte.

I rischi non si limitano agli output digitali. Forbidden Colours, ONG belga per i diritti LGBTQ+, ha spiegato che i sistemi di riconoscimento automatico del genere (AGR) analizzano materiale audio-visivo e usano tratti del volto o schemi vocali per inferire il genere. Secondo l'ONG non è possibile sapere come una persona comprende il proprio genere solo da queste misure, e tali sistemi sono fuorvianti e potenzialmente pericolosi. In aggiunta, Politico Europe ha riportato che il primo ministro Viktor OrbE1n ha autorizzato il monitoraggio biometrico abilitato all'AI durante eventi locali del Pride, una misura che permette a governo e forze dell'ordine di sorvegliare artisti, attivisti e cittadini; le istituzioni dell'Unione Europea stanno esaminando la politica.

Gli attivisti chiedono cambiamenti concreti per ridurre i danni e aumentare l'equità dell'AI. Richiedono collaborazione tra sviluppatori e portatori di interesse LGBTQ+, maggiori garanzie contro l'uso abusivo della sorveglianza e il divieto di sistemi che rilevino o classificano il genere. Sostengono inoltre che il contributo delle persone LGBTQ+ debba essere richiesto in tutte le fasi di sviluppo degli strumenti, per rendere l'AI più utile e giusta per più persone.

Parole difficili

  • integratoinserito e usato all'interno di un sistema o processo
    integrata
  • sondaggioindagine che raccoglie opinioni di molte persone
  • investimentouso di denaro per ottenere futuro beneficio economico
    investimenti
  • efficienzacapacità di fare più risultati con meno risorse
  • stereotipoidea semplificata e spesso falsa su un gruppo
    stereotipi
  • addestrareinsegnare a una macchina a riconoscere schemi
    addestrati
  • eteronormativoche assume l'eterosessualità come norma sociale
    eteronormativi
  • riconoscimentoazione di identificare una persona o caratteristica

Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.

Domande di discussione

  • Quali rischi principali per le persone LGBTQ+ sono descritti nell'articolo? Spiega con esempi del testo.
  • In che modo lo sviluppo degli strumenti AI potrebbe diventare più equo secondo gli attivisti?
  • Pensi che sia giusto vietare sistemi che rilevano o classificano il genere? Argomenta la tua risposta con motivi tratti dall'articolo.

Articoli correlati

L'AI e i rischi per le persone LGBTQ+ — Italiano Livello B2 | LingVo.club