L'IA et les risques pour les personnes LGBTQ+CEFR B2
18 nov. 2025
Adapté de Aaron Spitler, Global Voices • CC BY 3.0
Photo de Igor Omilaev, Unsplash
L'intelligence artificielle gagne du terrain dans la vie quotidienne et suscite des débats. Un sondage mondial réalisé par Ipsos montre que 55 % des personnes interrogées estiment que les solutions alimentées par l'IA apportent plus d'avantages que d'inconvénients. Les investissements privés dans ce domaine ont fortement augmenté au cours de la dernière décennie, et les entreprises mettent en avant l'efficacité et la facilité d'utilisation de ces outils.
Mais ces progrès s'accompagnent de risques concrets pour les personnes LGBTQ+. Wired a rapporté que certains générateurs d'images, comme Midjourney, produisaient des représentations réductrices et nuisibles pour ces communautés. Les données d'internet contiennent des stéréotypes, et les modèles entraînés sur ces données ont tendance à les reproduire. L'UNESCO a examiné les hypothèses de plusieurs modèles et conclu que des outils largement utilisés, tels que Llama 2 de Meta et GPT-2 d'OpenAI, étaient façonnés par des attitudes hétéronormatives et produisaient du contenu négatif à propos des personnes gays plus de la moitié du temps lors de leurs simulations.
Les risques dépassent les seules sorties numériques. Forbidden Colours, une association belge, a décrit le fonctionnement des systèmes de « reconnaissance automatique du genre » qui analysent des matériaux audio-visuels et utilisent des traits du visage ou des modèles vocaux pour déduire le genre. L'association soutient qu'il est impossible de connaître la manière dont une personne comprend son propre genre à partir de ces mesures et que ces systèmes sont potentiellement dangereux.
Politico Europe a rapporté que le Premier ministre Viktor Orbán a autorisé une surveillance biométrique assistée par l'IA lors d'événements locaux de la Pride, affirmant que cela protégerait les enfants de « l'agenda LGBTQ+ ». En pratique, cette mesure permet au gouvernement et aux forces de l'ordre de surveiller des artistes, des militants et des citoyens ordinaires. Les institutions de l'Union européenne examinent la politique.
Des défenseurs réclament des changements concrets et une participation effective des personnes concernées. Ils demandent notamment :
- partenariats avec la communauté LGBTQ+;
- garanties contre les usages abusifs de la surveillance;
- interdiction des systèmes de détection ou de classification du genre;
- participation des personnes LGBTQ+ à la conception des outils.
Ces mesures visent à réduire les dommages et à augmenter les chances que l'IA devienne utile et équitable pour un plus grand nombre de personnes.
Mots difficiles
- stéréotype — idée simplifiée et souvent fausse sur un groupestéréotypes
- hétéronormatif — qui considère l'hétérosexualité comme norme socialehétéronormatives
- biométrique — relatif aux traits corporels utilisés pour identifier
- surveillance — observation ou suivi des personnes par des autorités
- entraîner — apprendre à un modèle à partir de donnéesentraînés
- réducteur — qui simplifie et diminue la complexité réelleréductrices
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Pensez-vous que l'interdiction des systèmes de détection ou de classification du genre soit une mesure efficace ? Pourquoi ou pourquoi pas ?
- Comment la participation des personnes LGBTQ+ à la conception des outils d'IA pourrait-elle changer les résultats produits par ces systèmes ? Donnez des exemples.
- Comment concilier les avantages d'efficacité et de facilité d'utilisation de l'IA avec les risques pour les droits et la sécurité des personnes ? Proposez des mesures concrètes.
Articles liés
La recherche de la vie et des technosignatures sur les exoplanètes
Depuis la découverte d’une exoplanète en 1995, les chercheurs ont trouvé plus de 4 000 mondes. Ils cherchent des signatures biologiques et des signatures technologiques ; une subvention de la NASA soutient Adam Frank.
Des adolescents de Hong Kong utilisent des chatbots IA pour un soutien émotionnel
Hong Kong Free Press a publié le 12 octobre 2025 un reportage sur des adolescents qui parlent avec des chatbots IA pour du soutien. Le texte montre aussi les risques, les procès et des projets locaux comme Dustykid.
Un nouvel appareil mesure la viscosité du sang en temps réel
Des chercheurs de l’Université du Missouri ont mis au point une technologie non invasive qui surveille la viscosité du sang avec des ondes ultrasonores et un logiciel. Elle mesure aussi la densité et pourrait devenir portable.
Les constructeurs automobiles chinois se tournent vers l’Afrique
Les fabricants chinois de véhicules électriques cherchent des marchés hors de Chine après une baisse des marges. Face à des droits de douane aux États‑Unis et des barrières en Europe, beaucoup misent sur l’Afrique pour vendre et produire.