Les outils d'intelligence artificielle se développent vite et atteignent un large public : en avril, ChatGPT d'OpenAI a atteint un milliard d'utilisateurs actifs par semaine. Parallèlement, des rapports ont documenté des dommages liés à des systèmes biaisés, comme des traitements médicaux différents selon des caractéristiques démographiques et des outils de recrutement discriminants.
Une étude de l'Université du Texas à Austin, menée par Hüseyin Tanriverdi avec le doctorant John-Patrick Akinyemi (McCombs en IROM), a analysé un ensemble de 363 algorithmes identifiés comme biaisés, provenant du dépôt AI Algorithmic and Automation Incidents and Controversies. Les chercheurs ont comparé chaque cas problématique à des algorithmes similaires qui n'avaient pas été signalés, en examinant à la fois les modèles et les organisations utilisatrices.
Ils isolent trois sources majeures de biais. D'abord, l'absence d'une vérité de terrain bien établie augmente le risque d'erreur, comme lorsqu'on demande à un algorithme d'estimer l'âge d'un os sur une radiographie. Ensuite, la complexité du monde réel est souvent mal représentée : Tanriverdi cite l'exemple de l'Arkansas où des visites à domicile par des infirmières ont été remplacées par décisions automatisées, privant ainsi des personnes handicapées d'aide pour manger et se doucher. Enfin, le manque de participation de parties prenantes diverses conduit à des systèmes mal adaptés à tous les groupes.
Les auteurs concluent que réduire le biais exige plus que d'améliorer la précision : il faut « ouvrir les boîtes noires » pour intégrer la complexité du monde réel, des données variées et des vérités de terrain claires. « Les facteurs sur lesquels nous nous concentrons ont un effet direct sur l'équité des résultats », affirme Tanriverdi. La recherche est publiée dans MIS Quarterly (source : UT Austin).
Mots difficiles
- algorithme — suite d'instructions informatiques pour traiter des donnéesalgorithmes
- biais — erreur systématique qui fausse les résultats
- vérité de terrain — information réelle et fiable venant du terrain
- complexité — caractère avec beaucoup d'éléments et relations
- partie prenante — personne ou groupe concerné par un projetparties prenantes
- boîte noire — système dont le fonctionnement interne est cachéboîtes noires
- équité — traitement juste qui réduit les inégalités
- discriminant — qui traite différemment selon un groupediscriminants
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Que pensez-vous de la proposition d'« ouvrir les boîtes noires » des algorithmes ? Donnez des avantages et des risques.
- Comment pourrait-on impliquer des parties prenantes diverses lors du développement d'un outil d'IA ? Donnez des exemples concrets.
- Donnez des exemples de vérités de terrain qui aideraient un algorithme médical à éviter des décisions erronées.
Articles liés
Violences en ligne contre les femmes en politique en Ouganda
Lors des élections de janvier 2026, de nombreuses femmes candidates en Ouganda ont été visées par des attaques en ligne : images créées par l’IA, deepfakes, désinformation et insultes sexualisées. Un rapport souligne l’ampleur des violences et les barrières technologiques à la participation politique.
La poussière lunaire comme ressource
Des chercheurs montrent que la poussière lunaire pourrait renforcer des matériaux composites. Des tests en laboratoire avec un simulant de régolithe indiquent des gains de performance et ouvrent des pistes pour construire habitats et infrastructures sur la Lune.