Les outils d'IA se répandent et des études ont montré des conséquences graves : des traitements médicaux différents selon le profil des patients et des outils de recrutement qui discriminent certaines personnes. Ces cas ont attiré l'attention des chercheurs.
Une équipe de l'Université du Texas à Austin, dirigée par Hüseyin Tanriverdi avec John-Patrick Akinyemi, a étudié 363 algorithmes identifiés comme biaisés, issus d'un dépôt nommé AI Algorithmic and Automation Incidents and Controversies. Les chercheurs ont comparé chaque algorithme problématique à un algorithme similaire non signalé et ont examiné aussi les organisations utilisatrices.
Ils identifient plusieurs facteurs : l'absence d'une vérité de terrain claire (par exemple pour estimer l'âge d'un os sur une radiographie), la simplification excessive de situations réelles (cas de l'Arkansas où des visites à domicile ont été remplacées par des décisions automatisées, privant des personnes handicapées d'aide pour manger et se doucher) et le manque de participation de groupes divers lors de la conception. Les auteurs concluent qu'il faut plus que des gains de précision : ouvrir les boîtes noires et prendre en compte la complexité, des entrées diverses et des vérités de terrain claires. La recherche est publiée dans MIS Quarterly.
Mots difficiles
- algorithme — suite d'instructions pour prendre des décisionsalgorithmes
- biaisé — qui favorise ou défavorise certains casbiaisés
- discriminer — traiter différemment et injustement des personnesdiscriminent
- vérité de terrain — mesure ou référence claire pour vérifier résultatsvérités de terrain
- simplification — réduction excessive de la complexité d'une situation
- boîte noire — système dont le fonctionnement interne est cachéboîtes noires
- conception — processus de création ou de développement d'un produit
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Pensez-vous que les entreprises devraient ouvrir les boîtes noires des algorithmes ? Pourquoi ?
- Comment la participation de groupes divers peut-elle améliorer la conception d'un outil d'IA ?
- Avez-vous déjà vu un service automatisé qui semblait injuste ? Que feriez-vous pour l'améliorer ?
Articles liés
Un nouveau procédé FJH-ClO pour recycler les batteries lithium-ion
Des chercheurs de Rice University présentent FJH-ClO, une méthode sans acide pour extraire lithium, cobalt et graphite des batteries usagées. Le procédé utilise deux courts chauffages et des gaz contrôlés et a été prouvé au laboratoire.
Un matériau qui utilise la lumière pour éliminer les polluants de l'eau
Des chercheurs ont créé un matériau qui, exposé à la lumière, décompose plusieurs polluants de l'eau, y compris les PFAS. Le dispositif combine des réseaux organiques covalents avec un film de nitrure de bore et fonctionne sans métaux.
Des capteurs bon marché pour surveiller la pollution en Afrique du Sud
Des scientifiques ont adapté des méthodes de physique des particules pour créer AI_r, un réseau de capteurs à faible coût qui mesure la qualité de l'air en temps réel. Le projet s'étend de Soweto à Sedibeng avec 500 capteurs prévus.