L'IA et les risques pour les personnes LGBTQ+CEFR A2
18 nov. 2025
Adapté de Aaron Spitler, Global Voices • CC BY 3.0
Photo de Igor Omilaev, Unsplash
L'intelligence artificielle devient courante et 55 % des personnes interrogées trouvent qu'elle apporte plus d'avantages que d'inconvénients. Les investissements privés en IA ont beaucoup augmenté, et les entreprises parlent souvent d'efficacité et de simplicité.
Pourtant, beaucoup de gens s'inquiètent, surtout les communautés LGBTQ+. Wired a signalé que des générateurs d'images comme Midjourney produisaient des images réductrices. L'UNESCO a aussi trouvé des biais dans des modèles comme Llama 2 et GPT-2, qui donnaient souvent du contenu négatif au sujet des personnes gays.
Forbidden Colours décrit des systèmes de « reconnaissance automatique du genre » qui utilisent le visage ou la voix. Le Premier ministre Viktor Orbán a autorisé une surveillance biométrique assistée par l'IA lors d'événements Pride. Des défenseurs demandent des partenariats, des garanties et l'interdiction de ces systèmes.
Mots difficiles
- stéréotype — Idée préconçue sur un groupe ou une personne.stéréotypes, stéréotypées
- effet — Résultat ou impact de quelque chose.effets
- outil — Objet utilisé pour faire ou accomplir une tâche.outils
- surveiller — Observer attentivement quelque chose ou quelqu'un.
- genre — Catégorie de sexe, masculin ou féminin.
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Pourquoi est-il important de parler des stéréotypes dans l'IA?
- Quels sont les effets de l'IA sur la vie privée?
- Comment peut-on améliorer l'utilisation de l'IA?
Articles liés
L'IA et la pornographie : risques pour les personnes LGBTQ+
L'intelligence artificielle crée des images et vidéos pour adultes de plus en plus réalistes. Cela pose des problèmes éthiques et juridiques, et des personnes LGBTQ+ subissent des stéréotypes, du fétichisme et des contenus non consentis.
Les LLM jugent différemment selon l'auteur indiqué
Des chercheurs de l'Université de Zurich montrent que les grands modèles de langage changent leur évaluation d'un texte si l'on précise qui l'a écrit. L'étude révèle un biais marqué, notamment anti‑chinois, et demande plus de transparence.