Des collectifs d'Amérique latine construisent des systèmes d'intelligence artificielle ouverts et locaux pour mieux mesurer et réduire les inégalités de genre et la violence sexiste. Ils partent du constat que beaucoup d'algorithmes produits loin de la région reflètent des visions du monde étrangères et peuvent aggraver les inégalités en introduisant ou en renforçant des biais liés au genre, à la race, à l'âge ou à la capacité. Pour ces groupes, la vie privée, la justice et l'équité doivent être intégrées dès la conception des systèmes.
En Argentine, Ivana Feldfeber a fondé DataGénero et son équipe a développé AymurAI, un programme open source installé sur des serveurs locaux afin d'assurer sécurité et confidentialité. AymurAI cherche des informations pertinentes dans les documents judiciaires, collecte le matériel sans l’interpréter et envoie exactement ce qu’il trouve vers une base de données. Depuis son introduction en 2021, il est utilisé dans des tribunaux en Argentine, au Chili et au Costa Rica et inclut des données de plus de 10,000 jugements. Le projet a reçu un financement du International Development Research Centre (IDRC) du Canada et de la Patrick McGovern Foundation. L'équipe prévoit d'ajouter une fonction audio-texte qui, une fois validée, pourrait préserver les témoignages et éviter que les victimes répètent des événements traumatisants; elle anonymise déjà des détails sensibles comme les adresses pour protéger les victimes.
D'autres initiatives régionales proposent des approches complémentaires. Derechos Digitales, dirigée par Jamila Venturini, analyse les politiques technologiques et alerte sur le risque d'importer des systèmes inadaptés. Au Mexique, Cristina Martínez Pinto et PIT Policy Lab ont travaillé avec l'État de Guanajuato pour prédire les abandons scolaires et ont constaté que 4,000 jeunes avaient été mal identifiés comme non à risque. Ils ont noté un déséquilibre de genre dans l'équipe technique et ont introduit des outils open source pour détecter les biais, ainsi que des formations pour les responsables. Le informaticien Daniel Yankelevich, de Fundar, insiste sur le besoin de modèles et de données locales, car les comportements varient selon la culture.
- Améliorer les données d'entraînement
- Ajouter des fonctions techniques comme la transcription audio
- Renforcer les cadres de protection
- Promouvoir des politiques publiques pour réduire les torts causés par des algorithmes biaisés ou opaques
Mots difficiles
- biais — erreurs systématiques qui favorisent un groupe social
- open source — logiciel dont le code est public et modifiable
- anonymiser — cacher ou supprimer les informations personnelles identifiablesanonymise
- tribunal — lieu où sont rendues les décisions de justicetribunaux
- confidentialité — protection des données privées d'une personne
- inégalité — différences injustes entre personnes ou groupesinégalités
- audio-texte — outil pour transformer la parole enregistrée en texte
- équité — traitement impartial et juste entre les personnes
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Quels avantages et quels risques voyez-vous à utiliser des systèmes d'IA locaux pour traiter des cas de violence sexiste ? Donnez des exemples concrets.
- Parmi les mesures évoquées dans le texte (améliorer les données, fonctions audio-texte, cadres de protection, politiques publiques), lesquelles vous paraissent prioritaires et pourquoi ?
Articles liés
Pertes de récoltes en Inde liées au climat et aux ravageurs
La variabilité climatique, les ravageurs et la pollution augmentent les pertes de récoltes en Inde. Cela réduit la qualité des grains, menace la santé et oblige les experts à demander de meilleures mesures et infrastructures.
Voiture électrique : utiliser la batterie pour la maison
Une étude de l'University of Michigan, publiée dans Nature Energy, montre que le V2H — utiliser la batterie d'un véhicule électrique pour alimenter un logement — peut faire économiser plusieurs milliers de dollars et réduire les émissions du réseau.
Des adolescents de Hong Kong utilisent des chatbots IA pour un soutien émotionnel
Hong Kong Free Press a publié le 12 octobre 2025 un reportage sur des adolescents qui parlent avec des chatbots IA pour du soutien. Le texte montre aussi les risques, les procès et des projets locaux comme Dustykid.