LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
L'IA et la pornographie : risques pour les personnes LGBTQ+ — Niveau B2 — man in black t-shirt using black laptop computer

L'IA et la pornographie : risques pour les personnes LGBTQ+CEFR B2

2 avr. 2026

Adapté de Guest Contributor, Global Voices CC BY 3.0

Photo de franco alva, Unsplash

Niveau B2 – Intermédiaire supérieur
6 min
324 mots

L'intelligence artificielle permet désormais de produire des images et des vidéos pour adultes d'apparence réaliste, ce qui a transformé certains usages en ligne. En 2025, Pornhub a rapporté que « Lesbian » était sa catégorie la plus regardée et que « Transgender » était deuxième. Les recherches Google pour « AI porn generators » ont augmenté et un site a reçu 8.57 million visitors en janvier.

Beaucoup d'outils d'IA apprennent à partir de vastes ensembles de données puis génèrent de nouvelles vidéos à la demande. Aurélie Petit, chercheuse postdoctorale, décrit une grande partie de ces contenus comme des « médias non photoréalistes », une catégorie que beaucoup de plateformes et de lois ne couvrent pas clairement. Miranda Wei avertit que les ensembles de données peuvent contenir des images haineuses ou non consenties.

Des chercheurs et des défenseurs soulignent des préjudices précis pour les personnes LGBTQ+. La pornographie trans grand public peut renforcer les préjugés ; insultes et tropes nuisibles restent fréquents. Certains sites proposent une personnalisation poussée — âge, parties du corps, modificateurs et 42 options de « race », dont des libellés comme « gobelin » ou « peau verte » — que des universitaires jugent fétichisants et objectivants.

Des lois commencent à répondre au problème : l'an dernier le Congrès américain a adopté le TAKE IT DOWN Act, le Tennessee qualifie le partage de deepfakes de crime grave, et la Californie a voté une loi avec un marquage par watermark signé par le gouverneur Gavin Newsom. Malgré ces mesures, la pornographie générée par l'IA reste souvent dans une zone juridique grise, et les experts signalent une hausse de la consommation, des problèmes de dépendance chez les adolescents et des contournements des règles de sécurité par des acteurs malveillants. En outre, en 2026 l'UNICEF a indiqué que dans 11 pays au moins 1.2 million d'enfants ont dit que leurs images avaient été manipulées en deepfakes sexuels l'année précédente, et il a été révélé qu'à partir de décembre 2025 Grok a produit et partagé plus de 1.8 million d'images sexualisées de femmes.

Mots difficiles

  • photoréalistequi ressemble beaucoup à une vraie photographie
    photoréalistes
  • ensemble de donnéescollection d'exemples utilisée pour l'entraînement d'un modèle
    ensembles de données
  • deepfakefausse image ou vidéo créée par une IA
    deepfakes
  • fétichisantqui réduit une personne à un objet de désir
    fétichisants
  • marquageaction d'identifier ou d'apposer un signe sur quelque chose
  • contournementaction d'éviter une règle ou une protection
    contournements
  • préjudicedommage ou effet négatif subi par quelqu'un
    préjudices
  • personnalisationadaptation d'un contenu selon les préférences d'une personne
  • malveillantqui cherche à nuire ou à causer du tort
    malveillants

Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.

Questions de discussion

  • Pensez-vous que les lois mentionnées (TAKE IT DOWN Act, mesures d'États, marquage) suffisent pour protéger les victimes ? Pourquoi ?
  • Quels risques spécifiques posent la personnalisation poussée et les options de « race » pour les personnes LGBTQ+ ? Donnez des exemples tirés du texte.
  • Quelles mesures concrètes pourraient prendre les plateformes ou les créateurs d'IA pour réduire la diffusion de contenus non consentis et protéger les mineurs ?

Articles liés