Artefarita inteligenteco rapide disvastiĝas kaj atingas multajn uzantojn. En aprilo ChatGPT atingis unu miliardon da aktivaj uzantoj semajne, kaj samtempe estis dokumentitaj kazoj kie AI-sistemoj kaŭzis malsamajn kuracajn decidojn kaj discriminacion en dungado. Tio atentigis esploristojn pri la fontoj de parteco en algoritmoj.
Nova esploro de University of Texas at Austin, fare de John-Patrick Akinyemi kaj Hüseyin Tanriverdi, analizis aron de 363 algoritmoj el la deponejo AI Algorithmic and Automation Incidents and Controversies. Ili komparis ĉiun algoritmo markitan kiel parteca kun simila algoritmo sen tia marko, kaj ankaŭ ekzamenis la organizojn kiuj kreadis kaj aplikis la sistemojn.
La studo identigis tri rilatajn faktorojn kiuj kreskigas la riskon de maljustaj rezultoj: kiam ne ekzistas bone-etablita verda vero (ekz. taksi aĝon de osto), kiam modeloj ignoras real-mondan kompleksecon (ekz. anstataŭigi hejmajn flegistajn vizitojn per aŭtomataj decidoj), kaj kiam sistemoj estas desegnitaj ĉefe por unu demografia grupo. Ili konkludas, ke por redukti partecon necesas malfermi la sistemojn, konsideri realan kompleksecon, kaj inkluzivi pli diversajn datumojn.
Malfacilaj vortoj
- inteligenteco — kapablo aŭ sistemo kiu imitas homan pensadonArtefarita inteligenteco
- algoritmo — reguloj aŭ programoj por fari decidojnalgoritmoj
- parteco — prefero aŭ malavantaĝo por iu demografia grupopartecon
- diskriminacio — maljusta traktado de personoj pro ilia grupodiscriminacion
- komplekseco — multaj interrilatoj aŭ detaloj en reala mondokompleksecon
- datumoj — informoj uzataj por trejni aŭ testi sistemondatumojn
- malfermi — igi ion alirebla aŭ videbla por aliaj
Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.
Diskutaj demandoj
- Kiuj paŝoj laŭ la studo povas helpi redukti partecon en AI-sistemoj en via laboro aŭ komunumo?
- Ĉu vi pensas ke malfermi la sistemojn por publiko povas redukti aŭ pligrandigi riskojn? Klarigu viajn kialojn.
- Kiel organizoj povus konsideri realan kompleksecon kiam ili uzas algoritmojn por decidi pri homoj?
Rilataj artikoloj
Civita Scienco Donashelpi por Atingi SDG-ojn
Civita scienco povas helpi atingi sanon kaj bonfarton en la Daŭripaj Disvolvado-Objektivoj (SDG-oj). La nova analizo montras la gravecon de civita raportado por dumteni sanindikon.
Afriko estas pli bone preparita por fruaj avertoj pri klimato
Afriko lanĉas novan satelitan sistemon por fruaj avertoj kaj klimatinformoj. La sistemo, SEWA, celas plibonigi la preparado por klimataj krizoj.
Algoritmoj kiuj klarigas kiel propano transformiĝas al propeno
Esploristoj ĉe University of Rochester kreis algoritmojn kiuj montras atomajn detalojn pri kiel nanoskalaj kataliziloj konvertas propanon al propeno. La rezultoj aperis en Journal of the American Chemical Society kaj povas helpi industrion.
Kiel generativa AI ŝanĝas eksterlandajn malinformkampanjojn
Intervjuo publikigita la 12an de novembro 2025 ĉe Antidisinfo.net kaj reeldonita kun Global Voices kaj Metamorphosis Foundation klarigas kiel generativa AI akcelas malinformon. Laura Jasper (HCSS) priskribas riskojn kaj rekomendas metodojn por analizi kaj respondi.
Kiel radikoj penetras kompaktigitan teron
Esploristoj trovis, ke radikoj ŝveliĝas kaj plifortigas sian eksteran tavolon por penetri densaĵan grundon. Ili identigis ĉelajn kaj molekulajn paŝojn kaj montris, ke transskriba faktoro helpas radikojn eniri kompaktigitan teron.
AI, la nova fronto por tutmonda tabakkontrolo
La konferenco en Dublino diskutis la uzon de artefarita inteligenteco (AI) kontraŭ tabakreklamo al junuloj.