L'IA et la violence en ligne contre les femmes au NigeriaCEFR B2
10 avr. 2026
Adapté de Guest Contributor, Global Voices • CC BY 3.0
Photo de Ahmed Nasiru, Unsplash
Depuis l'apparition d'outils d'IA générative, la dynamique de la violence en ligne au Nigeria a changé. Les algorithmes et les mécanismes de monétisation des plateformes amplifient la visibilité des contenus exploitants, et la faible application des règles crée un terrain propice aux abus genrés.
Des études récentes documentent l'ampleur du phénomène. Le rapport 2024 de Gatefield note que 58 pour cent des abus en ligne ciblent des femmes. D'autres enquêtes indiquent que X et Facebook concentrent une grande part des signalements, et qu'une majorité d'utilisateurs juge X peu réactif. L'assistant Grok, développé par xAI et intégré à X, peut générer et éditer images et textes ; il a été utilisé pour créer des images sexualisées non consensuelles, révélant des lacunes dans la modération.
Un rapport de Gatefield publié en février 2026 alerte sur l'aggravation possible du phénomène et donne des projections préoccupantes pour les années à venir. Pour limiter les dommages, plusieurs groupes proposent des actions de conception et de politique :
- engagements de gouvernance et formation du personnel
- mécanismes de recours accessibles et consentement véritable
- minimisation des données, chiffrement et collaboration avec des groupes de défense des droits des femmes
Appliquer une perspective de confidentialité genrée avant et après le déploiement de l'IA vise à réduire les risques, mais il reste incertain que les plateformes adoptent ces pratiques et renforcent effectivement la modération.
Mots difficiles
- génératif — qui crée du contenu automatiquement par ordinateurgénérative
- algorithme — suite d'instructions informatiques pour traiter des donnéesalgorithmes
- monétisation — processus pour obtenir de l'argent d'une plateforme
- modération — contrôle et suppression de contenus sur une plateforme
- consentement — accord clair et volontaire d'une personne
- chiffrement — transformation des données pour les rendre illisibles
- minimisation — réduction des données collectées au minimum nécessaire
- genré — qui distingue selon le sexe ou genregenrés
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Pensez-vous que les plateformes adopteront les pratiques de confidentialité genrée proposées ? Pourquoi ou pourquoi pas ?
- Quelles difficultés pratiques pourraient empêcher une meilleure modération des contenus générés par l'IA ? Donnez des exemples.
- Parmi les actions listées (gouvernance, recours, minimisation, chiffrement), laquelle vous paraît prioritaire et pourquoi ?
Articles liés
Apprendre à marcher avec une prothèse robotique
Une étude montre comment des personnes apprennent à utiliser une prothèse de jambe. Les performances s'améliorent, mais la perception de la marche change; les chercheurs proposent plus de retours visuels pour mieux calibrer l'image corporelle.
Internet en Iran : coupure et contrôle du réseau
Les manifestations de décembre 2025–janvier 2026 ont provoqué une longue coupure d’Internet en Iran. Les autorités ont imposé une interruption complète le 8 janvier, puis un accès limité est revenu le 23 janvier; des restrictions subsistaient au 23 février.
Un mécanisme qui fait vieillir les batteries rechargeables
Des chercheurs identifient une « dégradation chimiomécanique » liée au gonflement et à la contraction des batteries pendant les cycles de charge. Ils observent des « cascades de contrainte » et proposent des pistes pour renforcer les électrodes.
Des essaims d'oiseaux pour aider l'IA à mieux résumer
Des chercheurs de New York University ont créé un prétraitement inspiré des essaims d'oiseaux pour rendre les résumés automatisés plus fidèles aux documents sources. La méthode réduit la redondance et diminue le risque d'hallucination de l'IA.
Des capteurs et l'intelligence artificielle pour suivre la SLA
Une équipe de l'Université du Missouri teste des capteurs à domicile et l'intelligence artificielle pour suivre la santé des personnes atteintes de sclérose latérale amyotrophique. Le système vise à détecter tôt les signes de déclin et à alerter les cliniciens.