L'IA et les risques pour les personnes LGBTQ+CEFR B2
18 nov. 2025
Adapté de Aaron Spitler, Global Voices • CC BY 3.0
Photo de Igor Omilaev, Unsplash
L'intelligence artificielle gagne du terrain dans la vie quotidienne et suscite des débats. Un sondage mondial réalisé par Ipsos montre que 55 % des personnes interrogées estiment que les solutions alimentées par l'IA apportent plus d'avantages que d'inconvénients. Les investissements privés dans ce domaine ont fortement augmenté au cours de la dernière décennie, et les entreprises mettent en avant l'efficacité et la facilité d'utilisation de ces outils.
Mais ces progrès s'accompagnent de risques concrets pour les personnes LGBTQ+. Wired a rapporté que certains générateurs d'images, comme Midjourney, produisaient des représentations réductrices et nuisibles pour ces communautés. Les données d'internet contiennent des stéréotypes, et les modèles entraînés sur ces données ont tendance à les reproduire. L'UNESCO a examiné les hypothèses de plusieurs modèles et conclu que des outils largement utilisés, tels que Llama 2 de Meta et GPT-2 d'OpenAI, étaient façonnés par des attitudes hétéronormatives et produisaient du contenu négatif à propos des personnes gays plus de la moitié du temps lors de leurs simulations.
Les risques dépassent les seules sorties numériques. Forbidden Colours, une association belge, a décrit le fonctionnement des systèmes de « reconnaissance automatique du genre » qui analysent des matériaux audio-visuels et utilisent des traits du visage ou des modèles vocaux pour déduire le genre. L'association soutient qu'il est impossible de connaître la manière dont une personne comprend son propre genre à partir de ces mesures et que ces systèmes sont potentiellement dangereux.
Politico Europe a rapporté que le Premier ministre Viktor Orbán a autorisé une surveillance biométrique assistée par l'IA lors d'événements locaux de la Pride, affirmant que cela protégerait les enfants de « l'agenda LGBTQ+ ». En pratique, cette mesure permet au gouvernement et aux forces de l'ordre de surveiller des artistes, des militants et des citoyens ordinaires. Les institutions de l'Union européenne examinent la politique.
Des défenseurs réclament des changements concrets et une participation effective des personnes concernées. Ils demandent notamment :
- partenariats avec la communauté LGBTQ+;
- garanties contre les usages abusifs de la surveillance;
- interdiction des systèmes de détection ou de classification du genre;
- participation des personnes LGBTQ+ à la conception des outils.
Ces mesures visent à réduire les dommages et à augmenter les chances que l'IA devienne utile et équitable pour un plus grand nombre de personnes.
Mots difficiles
- stéréotype — idée simplifiée et souvent fausse sur un groupestéréotypes
- hétéronormatif — qui considère l'hétérosexualité comme norme socialehétéronormatives
- biométrique — relatif aux traits corporels utilisés pour identifier
- surveillance — observation ou suivi des personnes par des autorités
- entraîner — apprendre à un modèle à partir de donnéesentraînés
- réducteur — qui simplifie et diminue la complexité réelleréductrices
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Pensez-vous que l'interdiction des systèmes de détection ou de classification du genre soit une mesure efficace ? Pourquoi ou pourquoi pas ?
- Comment la participation des personnes LGBTQ+ à la conception des outils d'IA pourrait-elle changer les résultats produits par ces systèmes ? Donnez des exemples.
- Comment concilier les avantages d'efficacité et de facilité d'utilisation de l'IA avec les risques pour les droits et la sécurité des personnes ? Proposez des mesures concrètes.
Articles liés
Une séance de réalité virtuelle réduit l’anxiété face à la mort
Une petite étude pilote montre qu’une courte séance de réalité virtuelle peut réduire nettement l’anxiété liée à la mort chez des étudiants, après une seule expérience immersive basée sur des témoignages d’expériences de mort imminente.
Croissance des centres de données en Indonésie et tensions sur l'eau
La hausse de l'intelligence artificielle a entraîné un fort développement des centres de données en Indonésie, avec 170 installations en avril 2026. Les besoins en eau pour le refroidissement posent des problèmes, notamment à Batam, où communautés et experts demandent un meilleur équilibre.
FCI : réduire les émissions et protéger les serveurs d'IA
Des chercheurs proposent Federated Carbon Intelligence (FCI), une méthode qui relie données environnementales et santé des serveurs pour diminuer les émissions de carbone et limiter l'usure du matériel. Des simulations montrent des gains importants.
Un site pour sauver les langues du Bangladesh
Un projet du gouvernement et du Bangladesh Computer Council a créé en juillet 2025 un site qui documente et enregistre des langues autochtones menacées. Le dépôt contient mots, phrases, transcriptions phonétiques et enregistrements audio.