Des collectifs d'Amérique latine construisent des systèmes d'intelligence artificielle ouverts et locaux pour mieux mesurer et réduire les inégalités de genre et la violence sexiste. Ils partent du constat que beaucoup d'algorithmes produits loin de la région reflètent des visions du monde étrangères et peuvent aggraver les inégalités en introduisant ou en renforçant des biais liés au genre, à la race, à l'âge ou à la capacité. Pour ces groupes, la vie privée, la justice et l'équité doivent être intégrées dès la conception des systèmes.
En Argentine, Ivana Feldfeber a fondé DataGénero et son équipe a développé AymurAI, un programme open source installé sur des serveurs locaux afin d'assurer sécurité et confidentialité. AymurAI cherche des informations pertinentes dans les documents judiciaires, collecte le matériel sans l’interpréter et envoie exactement ce qu’il trouve vers une base de données. Depuis son introduction en 2021, il est utilisé dans des tribunaux en Argentine, au Chili et au Costa Rica et inclut des données de plus de 10,000 jugements. Le projet a reçu un financement du International Development Research Centre (IDRC) du Canada et de la Patrick McGovern Foundation. L'équipe prévoit d'ajouter une fonction audio-texte qui, une fois validée, pourrait préserver les témoignages et éviter que les victimes répètent des événements traumatisants; elle anonymise déjà des détails sensibles comme les adresses pour protéger les victimes.
D'autres initiatives régionales proposent des approches complémentaires. Derechos Digitales, dirigée par Jamila Venturini, analyse les politiques technologiques et alerte sur le risque d'importer des systèmes inadaptés. Au Mexique, Cristina Martínez Pinto et PIT Policy Lab ont travaillé avec l'État de Guanajuato pour prédire les abandons scolaires et ont constaté que 4,000 jeunes avaient été mal identifiés comme non à risque. Ils ont noté un déséquilibre de genre dans l'équipe technique et ont introduit des outils open source pour détecter les biais, ainsi que des formations pour les responsables. Le informaticien Daniel Yankelevich, de Fundar, insiste sur le besoin de modèles et de données locales, car les comportements varient selon la culture.
- Améliorer les données d'entraînement
- Ajouter des fonctions techniques comme la transcription audio
- Renforcer les cadres de protection
- Promouvoir des politiques publiques pour réduire les torts causés par des algorithmes biaisés ou opaques
Mots difficiles
- biais — erreurs systématiques qui favorisent un groupe social
- open source — logiciel dont le code est public et modifiable
- anonymiser — cacher ou supprimer les informations personnelles identifiablesanonymise
- tribunal — lieu où sont rendues les décisions de justicetribunaux
- confidentialité — protection des données privées d'une personne
- inégalité — différences injustes entre personnes ou groupesinégalités
- audio-texte — outil pour transformer la parole enregistrée en texte
- équité — traitement impartial et juste entre les personnes
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Quels avantages et quels risques voyez-vous à utiliser des systèmes d'IA locaux pour traiter des cas de violence sexiste ? Donnez des exemples concrets.
- Parmi les mesures évoquées dans le texte (améliorer les données, fonctions audio-texte, cadres de protection, politiques publiques), lesquelles vous paraissent prioritaires et pourquoi ?
Articles liés
Apprendre à marcher avec une prothèse robotique
Une étude montre comment des personnes apprennent à utiliser une prothèse de jambe. Les performances s'améliorent, mais la perception de la marche change; les chercheurs proposent plus de retours visuels pour mieux calibrer l'image corporelle.
Un mécanisme qui fait vieillir les batteries rechargeables
Des chercheurs identifient une « dégradation chimiomécanique » liée au gonflement et à la contraction des batteries pendant les cycles de charge. Ils observent des « cascades de contrainte » et proposent des pistes pour renforcer les électrodes.
Bots ciblent Instagram d’activistes et médias dans les Balkans
Meta.mk rapporte, les 16 et 23 novembre 2025, des opérations coordonnées de bots qui ont visé des comptes Instagram d’activistes et de médias dans les Balkans occidentaux. Les campagnes ont exploité des règles automatiques des plateformes pour réduire la visibilité des critiques.
Virtual Vet : un jeu pour apprendre la science à l'école primaire
Des chercheurs de l'University of Georgia ont créé Virtual Vet, un jeu où des élèves jouent des assistants vétérinaires pour pratiquer l'anatomie, la santé et le raisonnement. Les enfants qui ont joué ont obtenu de meilleurs résultats qu'avec des activités traditionnelles.