Les outils d'IA se répandent et des études ont montré des conséquences graves : des traitements médicaux différents selon le profil des patients et des outils de recrutement qui discriminent certaines personnes. Ces cas ont attiré l'attention des chercheurs.
Une équipe de l'Université du Texas à Austin, dirigée par Hüseyin Tanriverdi avec John-Patrick Akinyemi, a étudié 363 algorithmes identifiés comme biaisés, issus d'un dépôt nommé AI Algorithmic and Automation Incidents and Controversies. Les chercheurs ont comparé chaque algorithme problématique à un algorithme similaire non signalé et ont examiné aussi les organisations utilisatrices.
Ils identifient plusieurs facteurs : l'absence d'une vérité de terrain claire (par exemple pour estimer l'âge d'un os sur une radiographie), la simplification excessive de situations réelles (cas de l'Arkansas où des visites à domicile ont été remplacées par des décisions automatisées, privant des personnes handicapées d'aide pour manger et se doucher) et le manque de participation de groupes divers lors de la conception. Les auteurs concluent qu'il faut plus que des gains de précision : ouvrir les boîtes noires et prendre en compte la complexité, des entrées diverses et des vérités de terrain claires. La recherche est publiée dans MIS Quarterly.
Mots difficiles
- algorithme — suite d'instructions pour prendre des décisionsalgorithmes
- biaisé — qui favorise ou défavorise certains casbiaisés
- discriminer — traiter différemment et injustement des personnesdiscriminent
- vérité de terrain — mesure ou référence claire pour vérifier résultatsvérités de terrain
- simplification — réduction excessive de la complexité d'une situation
- boîte noire — système dont le fonctionnement interne est cachéboîtes noires
- conception — processus de création ou de développement d'un produit
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Pensez-vous que les entreprises devraient ouvrir les boîtes noires des algorithmes ? Pourquoi ?
- Comment la participation de groupes divers peut-elle améliorer la conception d'un outil d'IA ?
- Avez-vous déjà vu un service automatisé qui semblait injuste ? Que feriez-vous pour l'améliorer ?
Articles liés
L'attention oscille plusieurs fois par seconde
Des chercheurs montrent que l'attention humaine change selon un rythme d'environ sept à dix fois par seconde. Cette cadence aide à comprendre les distractions modernes et pourrait orienter de nouvelles stratégies pour améliorer la concentration.
Des IA locales pour réduire la violence et les biais
Des groupes d'Amérique latine développent des outils d'intelligence artificielle pour étudier et réduire les inégalités de genre et la violence. Ils conçoivent des systèmes ouverts et locaux qui protègent les données sensibles et fournissent de meilleures preuves aux décideurs.
Les scientifiques découvrent des espèces plus vite
Une étude publiée dans Science Advances montre que les découvertes d’espèces augmentent. Entre 2015 et 2020, les chercheurs décrivent en moyenne plus de 16 000 nouvelles espèces par an et projettent encore beaucoup d’espèces inconnues.
L'IA pour renforcer les soins primaires en Afrique
Des pays africains veulent rendre leurs systèmes de santé plus autonomes. À la CPHIA à Durban, Africa CDC explique comment l'intelligence artificielle et les outils numériques peuvent soutenir les soins primaires, la surveillance et la gouvernance des données.