LingVo.club
Niveau
Des IA locales pour réduire la violence et les biais — Niveau B2 — grayscale photography of women marching

Des IA locales pour réduire la violence et les biaisCEFR B2

18 nov. 2025

Adapté de Martín De Ambrosio, SciDev CC BY 2.0

Photo de L'Odyssée Belle, Unsplash

Niveau B2 – Intermédiaire supérieur
7 min
365 mots

Des collectifs d'Amérique latine construisent des systèmes d'intelligence artificielle ouverts et locaux pour mieux mesurer et réduire les inégalités de genre et la violence sexiste. Ils partent du constat que beaucoup d'algorithmes produits loin de la région reflètent des visions du monde étrangères et peuvent aggraver les inégalités en introduisant ou en renforçant des biais liés au genre, à la race, à l'âge ou à la capacité. Pour ces groupes, la vie privée, la justice et l'équité doivent être intégrées dès la conception des systèmes.

En Argentine, Ivana Feldfeber a fondé DataGénero et son équipe a développé AymurAI, un programme open source installé sur des serveurs locaux afin d'assurer sécurité et confidentialité. AymurAI cherche des informations pertinentes dans les documents judiciaires, collecte le matériel sans l’interpréter et envoie exactement ce qu’il trouve vers une base de données. Depuis son introduction en 2021, il est utilisé dans des tribunaux en Argentine, au Chili et au Costa Rica et inclut des données de plus de 10,000 jugements. Le projet a reçu un financement du International Development Research Centre (IDRC) du Canada et de la Patrick McGovern Foundation. L'équipe prévoit d'ajouter une fonction audio-texte qui, une fois validée, pourrait préserver les témoignages et éviter que les victimes répètent des événements traumatisants; elle anonymise déjà des détails sensibles comme les adresses pour protéger les victimes.

D'autres initiatives régionales proposent des approches complémentaires. Derechos Digitales, dirigée par Jamila Venturini, analyse les politiques technologiques et alerte sur le risque d'importer des systèmes inadaptés. Au Mexique, Cristina Martínez Pinto et PIT Policy Lab ont travaillé avec l'État de Guanajuato pour prédire les abandons scolaires et ont constaté que 4,000 jeunes avaient été mal identifiés comme non à risque. Ils ont noté un déséquilibre de genre dans l'équipe technique et ont introduit des outils open source pour détecter les biais, ainsi que des formations pour les responsables. Le informaticien Daniel Yankelevich, de Fundar, insiste sur le besoin de modèles et de données locales, car les comportements varient selon la culture.

  • Améliorer les données d'entraînement
  • Ajouter des fonctions techniques comme la transcription audio
  • Renforcer les cadres de protection
  • Promouvoir des politiques publiques pour réduire les torts causés par des algorithmes biaisés ou opaques

Mots difficiles

  • biaiserreurs systématiques qui favorisent un groupe social
  • open sourcelogiciel dont le code est public et modifiable
  • anonymisercacher ou supprimer les informations personnelles identifiables
    anonymise
  • tribunallieu où sont rendues les décisions de justice
    tribunaux
  • confidentialitéprotection des données privées d'une personne
  • inégalitédifférences injustes entre personnes ou groupes
    inégalités
  • audio-texteoutil pour transformer la parole enregistrée en texte
  • équitétraitement impartial et juste entre les personnes

Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.

Questions de discussion

  • Quels avantages et quels risques voyez-vous à utiliser des systèmes d'IA locaux pour traiter des cas de violence sexiste ? Donnez des exemples concrets.
  • Parmi les mesures évoquées dans le texte (améliorer les données, fonctions audio-texte, cadres de protection, politiques publiques), lesquelles vous paraissent prioritaires et pourquoi ?

Articles liés