Les outils d'intelligence artificielle se développent vite et atteignent un large public : en avril, ChatGPT d'OpenAI a atteint un milliard d'utilisateurs actifs par semaine. Parallèlement, des rapports ont documenté des dommages liés à des systèmes biaisés, comme des traitements médicaux différents selon des caractéristiques démographiques et des outils de recrutement discriminants.
Une étude de l'Université du Texas à Austin, menée par Hüseyin Tanriverdi avec le doctorant John-Patrick Akinyemi (McCombs en IROM), a analysé un ensemble de 363 algorithmes identifiés comme biaisés, provenant du dépôt AI Algorithmic and Automation Incidents and Controversies. Les chercheurs ont comparé chaque cas problématique à des algorithmes similaires qui n'avaient pas été signalés, en examinant à la fois les modèles et les organisations utilisatrices.
Ils isolent trois sources majeures de biais. D'abord, l'absence d'une vérité de terrain bien établie augmente le risque d'erreur, comme lorsqu'on demande à un algorithme d'estimer l'âge d'un os sur une radiographie. Ensuite, la complexité du monde réel est souvent mal représentée : Tanriverdi cite l'exemple de l'Arkansas où des visites à domicile par des infirmières ont été remplacées par décisions automatisées, privant ainsi des personnes handicapées d'aide pour manger et se doucher. Enfin, le manque de participation de parties prenantes diverses conduit à des systèmes mal adaptés à tous les groupes.
Les auteurs concluent que réduire le biais exige plus que d'améliorer la précision : il faut « ouvrir les boîtes noires » pour intégrer la complexité du monde réel, des données variées et des vérités de terrain claires. « Les facteurs sur lesquels nous nous concentrons ont un effet direct sur l'équité des résultats », affirme Tanriverdi. La recherche est publiée dans MIS Quarterly (source : UT Austin).
Mots difficiles
- algorithme — suite d'instructions informatiques pour traiter des donnéesalgorithmes
- biais — erreur systématique qui fausse les résultats
- vérité de terrain — information réelle et fiable venant du terrain
- complexité — caractère avec beaucoup d'éléments et relations
- partie prenante — personne ou groupe concerné par un projetparties prenantes
- boîte noire — système dont le fonctionnement interne est cachéboîtes noires
- équité — traitement juste qui réduit les inégalités
- discriminant — qui traite différemment selon un groupediscriminants
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Que pensez-vous de la proposition d'« ouvrir les boîtes noires » des algorithmes ? Donnez des avantages et des risques.
- Comment pourrait-on impliquer des parties prenantes diverses lors du développement d'un outil d'IA ? Donnez des exemples concrets.
- Donnez des exemples de vérités de terrain qui aideraient un algorithme médical à éviter des décisions erronées.
Articles liés
Aguada Fénix : un monument maya découvert au Tabasco
Une équipe dirigée par l'University of Arizona a annoncé en 2020 la découverte d'un immense monument à Aguada Fénix, Tabasco. Les fouilles montrent un aménagement rituel ancien avec des objets cérémoniels et des pigments placés par direction.
Un dispositif portable pour détecter la fragilité
Des chercheurs de l'University of Arizona ont créé une manche portable qui utilise l'intelligence artificielle pour repérer tôt la fragilité chez les personnes âgées. L'appareil analyse le mouvement et envoie des résultats via Bluetooth.