Arta inteligenteco rapide disvastiĝas kaj influas gravajn decidojn en medicino, dungado kaj aliaj kampoj. La esploro de University of Texas at Austin, publikigita en MIS Quarterly, studis aron de 363 algoritmoj el la deponejo AI Algorithmic and Automation Incidents and Controversies. John-Patrick Akinyemi (McCombs PhD-kandidato en IROM) kaj Hüseyin Tanriverdi rigardis ne nur la algoritmojn, sed ankaŭ la organizojn kiuj disvolvis kaj aplikis ilin.
La esploristoj trovis, ke signifa fonto de parteco estas la malsukceso modeli kompleksajn realajn kondiĉojn. Ili mencias tri interrilatajn faktorojn: (1) manko de bone-etablita verda vero — kiam algoritmo devas antaŭdiri kion neniu havas klaran metodon por mezuri, ekzemple taksi la aĝon de osto el rentgenfoto; (2) real-monda komplekseco — modeloj simpligas realecon kaj ofte forlasas ŝlosilajn variablojn, kio okazis kiam aŭtomataj decidoj anstataŭigis hejmajn flegistajn vizitojn en Arkansas kaj rezultigis perdon de helpo por manĝado kaj bano; (3) parto-aranĝo — sistemoj desegnitaj ĉefe por unu demografia grupo povas neservi aliajn grupojn.
La aŭtoroj rekomendas, ke programistoj kaj organizoj malfermu la "nigran skatolon" por pli bone konsideri real-mondan kompleksecon, uzu diversan enigon kaj starigu klarajn verdajn verojn. Kiel Tanriverdi rimarkas, la faktoroj pri kiuj ili fokusiĝas havas rektan efikon sur la rezulto de justeco, kaj tiuj estas mankantaj pecoj kiujn daten-sciencistoj ofte neglektas. Fonto: UT Austin.