Plusieurs organisations en Amérique latine développent des systèmes d'IA locaux pour étudier les violences sexistes et les inégalités de genre. Elles veulent des outils ouverts qui protègent les données sensibles et donnent de meilleures preuves aux gouvernements et à la société civile. Selon les militantes, de nombreux algorithmes des grandes entreprises ne reflètent pas les réalités locales et peuvent produire des biais liés au genre, à la race, à l'âge ou au handicap.
DataGénero, en Argentine, a développé AymurAI, installé sur des serveurs locaux pour garantir la sécurité et la confidentialité. Le programme collecte des informations dans les documents judiciaires sans les interpréter et envoie exactement ce qu’il trouve vers une base de données. AymurAI est utilisé depuis 2021 en Argentine, au Chili et au Costa Rica et contient plus de 10,000 jugements. Il a reçu des financements de l'IDRC et de la Patrick McGovern Foundation.
Au Mexique, PIT Policy Lab a travaillé avec l'État de Guanajuato et a constaté que 4,000 jeunes avaient été mal identifiés comme non à risque. Les équipes introduisent des outils open source pour détecter les biais et proposent des formations sur les droits humains et le genre. Des experts insistent sur la nécessité d'utiliser des modèles et des données locales, car les comportements varient selon la culture.
Mots difficiles
- intelligence — Capacité d'apprendre et de comprendre.intelligence artificielle
- violence — Acte de blesser quelqu'un physiquement.violences
- biais — Tendance à avoir une opinion injuste.
- données — Informations collectées et analysées.
- inégalités — Différence entre deux choses.
- politiques — Règles pour gérer un pays ou une organisation.
- technologies — Outils ou méthodes avancés pour réaliser des tâches.
- décideurs — Groupe de personnes qui prennent des décisions.
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Comment l'intelligence artificielle peut-elle aider à l'égalité ?
- Quels autres domaines pourraient bénéficier des femmes dans la technologie ?
- Pourquoi est-il important de reformer les politiques publiques ?
- Comment les biais dans l'IA peuvent-ils affecter la société ?
Articles liés
Écrans tactiles et conduite : risques et solutions
Une étude a testé des conducteurs avec un grand écran tactile et un test de mémoire pour mesurer la charge cognitive. Les résultats montrent que lă9utilisation des écrans nuit à la conduite et suggèrent des capteurs pour améliorer lă9interface.
Violence en ligne contre les femmes journalistes en Indonésie
La violence numérique contre les journalistes et militantes en Indonésie a augmenté. Des attaques ciblées, du doxing au DDoS, visent surtout des femmes; les réponses institutionnelles et la modération des plateformes restent insuffisantes.