Artefarita inteligenteco rapide disvastiĝas kaj atingas multajn uzantojn. En aprilo ChatGPT atingis unu miliardon da aktivaj uzantoj semajne, kaj samtempe estis dokumentitaj kazoj kie AI-sistemoj kaŭzis malsamajn kuracajn decidojn kaj discriminacion en dungado. Tio atentigis esploristojn pri la fontoj de parteco en algoritmoj.
Nova esploro de University of Texas at Austin, fare de John-Patrick Akinyemi kaj Hüseyin Tanriverdi, analizis aron de 363 algoritmoj el la deponejo AI Algorithmic and Automation Incidents and Controversies. Ili komparis ĉiun algoritmo markitan kiel parteca kun simila algoritmo sen tia marko, kaj ankaŭ ekzamenis la organizojn kiuj kreadis kaj aplikis la sistemojn.
La studo identigis tri rilatajn faktorojn kiuj kreskigas la riskon de maljustaj rezultoj: kiam ne ekzistas bone-etablita verda vero (ekz. taksi aĝon de osto), kiam modeloj ignoras real-mondan kompleksecon (ekz. anstataŭigi hejmajn flegistajn vizitojn per aŭtomataj decidoj), kaj kiam sistemoj estas desegnitaj ĉefe por unu demografia grupo. Ili konkludas, ke por redukti partecon necesas malfermi la sistemojn, konsideri realan kompleksecon, kaj inkluzivi pli diversajn datumojn.
Malfacilaj vortoj
- inteligenteco — kapablo aŭ sistemo kiu imitas homan pensadonArtefarita inteligenteco
- algoritmo — reguloj aŭ programoj por fari decidojnalgoritmoj
- parteco — prefero aŭ malavantaĝo por iu demografia grupopartecon
- diskriminacio — maljusta traktado de personoj pro ilia grupodiscriminacion
- komplekseco — multaj interrilatoj aŭ detaloj en reala mondokompleksecon
- datumoj — informoj uzataj por trejni aŭ testi sistemondatumojn
- malfermi — igi ion alirebla aŭ videbla por aliaj
Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.
Diskutaj demandoj
- Kiuj paŝoj laŭ la studo povas helpi redukti partecon en AI-sistemoj en via laboro aŭ komunumo?
- Ĉu vi pensas ke malfermi la sistemojn por publiko povas redukti aŭ pligrandigi riskojn? Klarigu viajn kialojn.
- Kiel organizoj povus konsideri realan kompleksecon kiam ili uzas algoritmojn por decidi pri homoj?
Rilataj artikoloj
Cifereca kaj baza edukado por knabinoj en Chiapas
En la altmontoj de Chiapas mankas edukado kaj cifereca aliro por multaj familioj. Statistikoj montras altan malriĉecon, malfortan partoprenon de virinoj kaj perforton, sed programoj kiel Low‑Tech kaj Tecnolochicas montras komencajn progreso‑signojn.