Les outils d'intelligence artificielle se développent vite et atteignent un large public : en avril, ChatGPT d'OpenAI a atteint un milliard d'utilisateurs actifs par semaine. Parallèlement, des rapports ont documenté des dommages liés à des systèmes biaisés, comme des traitements médicaux différents selon des caractéristiques démographiques et des outils de recrutement discriminants.
Une étude de l'Université du Texas à Austin, menée par Hüseyin Tanriverdi avec le doctorant John-Patrick Akinyemi (McCombs en IROM), a analysé un ensemble de 363 algorithmes identifiés comme biaisés, provenant du dépôt AI Algorithmic and Automation Incidents and Controversies. Les chercheurs ont comparé chaque cas problématique à des algorithmes similaires qui n'avaient pas été signalés, en examinant à la fois les modèles et les organisations utilisatrices.
Ils isolent trois sources majeures de biais. D'abord, l'absence d'une vérité de terrain bien établie augmente le risque d'erreur, comme lorsqu'on demande à un algorithme d'estimer l'âge d'un os sur une radiographie. Ensuite, la complexité du monde réel est souvent mal représentée : Tanriverdi cite l'exemple de l'Arkansas où des visites à domicile par des infirmières ont été remplacées par décisions automatisées, privant ainsi des personnes handicapées d'aide pour manger et se doucher. Enfin, le manque de participation de parties prenantes diverses conduit à des systèmes mal adaptés à tous les groupes.
Les auteurs concluent que réduire le biais exige plus que d'améliorer la précision : il faut « ouvrir les boîtes noires » pour intégrer la complexité du monde réel, des données variées et des vérités de terrain claires. « Les facteurs sur lesquels nous nous concentrons ont un effet direct sur l'équité des résultats », affirme Tanriverdi. La recherche est publiée dans MIS Quarterly (source : UT Austin).
Mots difficiles
- algorithme — suite d'instructions informatiques pour traiter des donnéesalgorithmes
- biais — erreur systématique qui fausse les résultats
- vérité de terrain — information réelle et fiable venant du terrain
- complexité — caractère avec beaucoup d'éléments et relations
- partie prenante — personne ou groupe concerné par un projetparties prenantes
- boîte noire — système dont le fonctionnement interne est cachéboîtes noires
- équité — traitement juste qui réduit les inégalités
- discriminant — qui traite différemment selon un groupediscriminants
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Que pensez-vous de la proposition d'« ouvrir les boîtes noires » des algorithmes ? Donnez des avantages et des risques.
- Comment pourrait-on impliquer des parties prenantes diverses lors du développement d'un outil d'IA ? Donnez des exemples concrets.
- Donnez des exemples de vérités de terrain qui aideraient un algorithme médical à éviter des décisions erronées.
Articles liés
Une membrane dans la mâchoire améliore l'audition des ancêtres mammifères
Des chercheurs ont scanné un fossile, Thrinaxodon, et utilisé des simulations pour montrer qu'une membrane dans la mâchoire pouvait jouer le rôle de tympan. Cette capacité serait apparue bien plus tôt que prévu.
Des algorithmes pour comprendre la transformation du propane en propylène
Des chercheurs de l'Université de Rochester ont développé des algorithmes qui montrent, au niveau atomique, comment le propane devient propylène. Les résultats, publiés dans le Journal of the American Chemical Society, peuvent aider d'autres réactions industrielles.
Un outil d'IA pour mieux communiquer avec les personnes autistes
Des chercheurs de Tufts ont créé NeuroBridge, un outil d'intelligence artificielle qui aide les personnes non autistes à comprendre et ajuster leur façon de parler aux personnes autistes. L'équipe a reçu des retours positifs et prévoit d'élargir les tests.