L'IA et la pornographie : risques pour les personnes LGBTQ+CEFR B2
2 avr. 2026
Adapté de Guest Contributor, Global Voices • CC BY 3.0
Photo de franco alva, Unsplash
L'intelligence artificielle permet désormais de produire des images et des vidéos pour adultes d'apparence réaliste, ce qui a transformé certains usages en ligne. En 2025, Pornhub a rapporté que « Lesbian » était sa catégorie la plus regardée et que « Transgender » était deuxième. Les recherches Google pour « AI porn generators » ont augmenté et un site a reçu 8.57 million visitors en janvier.
Beaucoup d'outils d'IA apprennent à partir de vastes ensembles de données puis génèrent de nouvelles vidéos à la demande. Aurélie Petit, chercheuse postdoctorale, décrit une grande partie de ces contenus comme des « médias non photoréalistes », une catégorie que beaucoup de plateformes et de lois ne couvrent pas clairement. Miranda Wei avertit que les ensembles de données peuvent contenir des images haineuses ou non consenties.
Des chercheurs et des défenseurs soulignent des préjudices précis pour les personnes LGBTQ+. La pornographie trans grand public peut renforcer les préjugés ; insultes et tropes nuisibles restent fréquents. Certains sites proposent une personnalisation poussée — âge, parties du corps, modificateurs et 42 options de « race », dont des libellés comme « gobelin » ou « peau verte » — que des universitaires jugent fétichisants et objectivants.
Des lois commencent à répondre au problème : l'an dernier le Congrès américain a adopté le TAKE IT DOWN Act, le Tennessee qualifie le partage de deepfakes de crime grave, et la Californie a voté une loi avec un marquage par watermark signé par le gouverneur Gavin Newsom. Malgré ces mesures, la pornographie générée par l'IA reste souvent dans une zone juridique grise, et les experts signalent une hausse de la consommation, des problèmes de dépendance chez les adolescents et des contournements des règles de sécurité par des acteurs malveillants. En outre, en 2026 l'UNICEF a indiqué que dans 11 pays au moins 1.2 million d'enfants ont dit que leurs images avaient été manipulées en deepfakes sexuels l'année précédente, et il a été révélé qu'à partir de décembre 2025 Grok a produit et partagé plus de 1.8 million d'images sexualisées de femmes.
Mots difficiles
- photoréaliste — qui ressemble beaucoup à une vraie photographiephotoréalistes
- ensemble de données — collection d'exemples utilisée pour l'entraînement d'un modèleensembles de données
- deepfake — fausse image ou vidéo créée par une IAdeepfakes
- fétichisant — qui réduit une personne à un objet de désirfétichisants
- marquage — action d'identifier ou d'apposer un signe sur quelque chose
- contournement — action d'éviter une règle ou une protectioncontournements
- préjudice — dommage ou effet négatif subi par quelqu'unpréjudices
- personnalisation — adaptation d'un contenu selon les préférences d'une personne
- malveillant — qui cherche à nuire ou à causer du tortmalveillants
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Pensez-vous que les lois mentionnées (TAKE IT DOWN Act, mesures d'États, marquage) suffisent pour protéger les victimes ? Pourquoi ?
- Quels risques spécifiques posent la personnalisation poussée et les options de « race » pour les personnes LGBTQ+ ? Donnez des exemples tirés du texte.
- Quelles mesures concrètes pourraient prendre les plateformes ou les créateurs d'IA pour réduire la diffusion de contenus non consentis et protéger les mineurs ?
Articles liés
Les tribunaux pakistanais et la justice climatique
Les juridictions pakistanaises reconnaissent de plus en plus le droit à un environnement sain, mais des obstacles restent: financements limités, expertise juridique concentrée et résistances institutionnelles malgré des décisions et une réforme constitutionnelle récentes.
La cybersécurité au sommet UA‑UE de Luanda
Les menaces numériques ont été au centre des échanges entre l'Union africaine et l'Union européenne à Luanda. Les journalistes subissent des logiciels espions et la région fait face à des cyberattaques massives et à un besoin d'investissements.