Deepfakes sexuels au Brésil et appel à des règles pour l'IACEFR B2
28 avr. 2026
Adapté de Fernanda Canofre, Global Voices • CC BY 3.0
Photo de KOBU Agency, Unsplash
Au Brésil, plusieurs épisodes récents montrent comment des outils d'intelligence artificielle sont employés pour fabriquer et diffuser des images sexuelles sans consentement. En novembre 2023, des parents à Rio de Janeiro ont signalé des adolescents qui produisaient et partageaient des nus générés par IA. En septembre 2024, un groupe d'adolescents en Bahia a été soupçonné d'avoir créé des images pornographiques de camarades, et dans le Mato Grosso des élèves ont été expulsés après la diffusion d'images issues de l'IA dans des communautés pornographiques en ligne.
Ces cas sont décrits dans une note technique publiée début avril 2026 par le centre de recherche indépendant Internetlab. Le document analyse la violence en ligne contre les femmes et les filles, alerte sur les biais potentiels des bases de données et des jeux d'entraînement, et signale une forte augmentation des deepfakes sexuels. Une étude citée, de Security Hero, indique que 98 % des vidéos deepfake en ligne sont à caractère sexuel, que 99 % des personnes visées sont des femmes, et note une hausse de 464 % des deepfakes sexuels entre 2022 et 2023.
Internetlab recommande d'intégrer des protections dès la conception des plateformes ("safety-by-design"), de considérer les deepfakes sexuels non consensuels comme un "risque excessif" et d'en interdire l'usage, et de prévoir des orientations pédagogiques et des règles plus nettes sur la responsabilité des plateformes. Le centre rappelle aussi que la Cour suprême fédérale (STF) a partiellement annulé en 2025 un article du Marco Civil da Internet lié à la responsabilité des plateformes, ce qui a relancé les appels à une nouvelle réglementation. Internetlab note une hausse de projets de loi visant à criminaliser les comportements misogynes et les mouvements de la "manosphere", tout en avertissant que la seule criminalisation pourrait ne pas suffire.
À l'approche d'une saison électorale, Internetlab et sa directrice Clarice Tavares mettent en garde contre l'emploi d'outils d'IA et de chatbots tels que Gemini, ChatGPT et Claude, qui pourraient reproduire des biais de genre et une violence politique à l'encontre des femmes. Il reste incertain à quelle vitesse de nouvelles lois ou règles de plateformes pourront endiguer ces atteintes.
- Renforcer la sécurité dès la conception des plateformes
- Interdire les deepfakes sexuels non consensuels
- Clarifier la responsabilité et l'éducation numérique
Mots difficiles
- intelligence artificielle — programmes capables d'apprendre et de prendre des décisions
- deepfake — image ou vidéo truquée produite par un logicieldeepfakes
- non consensuel — sans accord ou permission de la personne concernéenon consensuels
- biais — erreur systématique dans les données ou décisions
- responsabilité — obligation légale ou morale d'agir ou répondre
- expulser — forcer quelqu'un à quitter un lieu ou groupeexpulsés
- criminaliser — rendre une action contraire à la loi pénale
- conception — action de créer ou planifier un produit ou service
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Quelles mesures concrètes pourraient prendre les plateformes pour mettre en œuvre la sécurité dès la conception ? Donnez des exemples.
- La criminalisation seule suffit-elle pour combattre les deepfakes sexuels non consensuels ? Pourquoi ou pourquoi pas ?
- Comment la diffusion de deepfakes sexuels peut-elle affecter la participation des femmes à la vie politique et publique ? Donnez des raisons tirées du texte.
Articles liés
L'IA peut être biaisée à cause de la complexité du monde réel
Une recherche de l'Université du Texas à Austin montre que de nombreux biais d'IA viennent de l'incapacité des modèles à représenter des situations réelles complexes. Les auteurs recommandent d'ouvrir les boîtes noires et d'impliquer des acteurs divers.