Gli strumenti di intelligenza artificiale si sono diffusi rapidamente: ad aprile ChatGPT di OpenAI ha raggiunto un miliardo di utenti attivi settimanali. Parallelamente, giornalisti e ricercatori hanno documentato casi in cui sistemi di AI hanno prodotto risultati discriminatori, ad esempio differenze nei trattamenti medici e esclusione di candidate donne o persone nere nei processi di selezione.
Una nuova ricerca dell'University of Texas at Austin, condotta da Hüseyin Tanriverdi insieme al dottorando John-Patrick Akinyemi (McCombs, IROM), ha analizzato un insieme di 363 algoritmi ritenuti faziosi, raccolti nell'archivio AI Algorithmic and Automation Incidents and Controversies. Per ogni algoritmo segnalato i ricercatori hanno trovato un algoritmo simile non segnalato e hanno studiato sia i modelli sia le organizzazioni che li usavano.
Lo studio individua tre fattori collegati che aumentano il rischio di esiti ingiusti:
- Verità di base: quando non esiste un criterio oggettivo consolidato, come nel caso di stime dell'età di un osso da una radiografia o nella valutazione controversa di un post sui social.
- Complessità del mondo reale: i modelli possono omettere variabili importanti, come quando decisioni automatizzate sui benefici Medicaid in Arkansas hanno sostituito visite domiciliari infermieristiche e hanno privato persone con disabilità di assistenza per mangiare e lavarsi.
- Coinvolgimento degli interessati: sistemi progettati da un unico gruppo demografico rischiano di ignorare bisogni diversi; coinvolgere stakeholder multipli aiuta a trovare compromessi accettabili.
I ricercatori concludono che ridurre il bias richiede più della semplice accuratezza: gli sviluppatori devono «aprire le scatole nere», tenere conto della complessità del mondo reale, raccogliere input diversificati e definire verità di base chiare. Lo studio è pubblicato su MIS Quarterly. Fonte: UT Austin.
Parole difficili
- discriminatorio — che tratta persone in modo ingiustodiscriminatori
- algoritmo — procedura o insieme di regole informatichealgoritmi
- fazioso — che mostra parzialità o pregiudiziofaziosi
- verità di base — criterio oggettivo o standard di riferimento
- complessità — presenza di molte variabili e fattori
- coinvolgimento — partecipazione diretta delle persone interessate
- accuratezza — grado di precisione o correttezza dei risultati
- scatola nera — sistema il cui funzionamento non è chiaroscatole nere
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- In che modo il coinvolgimento di diversi interessati può ridurre esiti ingiusti degli algoritmi? Fai esempi pratici.
- Quali problemi concreti possono nascere nel tentativo di «aprire le scatole nere» dei sistemi di AI?
- Come si potrebbe definire una verità di base chiara in un caso controverso, ad esempio nella valutazione di contenuti sui social?
Articoli correlati
L'Africa ha bisogno di più scienza per decidere e commerciare
Lise Korsten, presidente dell'African Academy of Sciences, avverte che la scarsa produzione di prove scientifiche in Africa ostacola decisioni, sicurezza alimentare ed esportazioni. L'AAS costruisce reti, promuove diplomazia scientifica e programmi per la diaspora.
IA e responsabilità: chi decide e chi subisce
Hija Kamran critica il modo in cui le aziende tecnologiche danno priorità al profitto e alla pubblicità, e spiega come i dati e i modelli di IA possano amplificare razzismo, sessismo ed esclusione. Chiede un approccio basato sui diritti umani.
Scienziati africani chiedono più investimenti per innovazioni mediche
Dirigenti scientifici africani chiedono che l’Africa sviluppi e finanzi le proprie innovazioni mediche per migliorare la salute, ridurre la dipendenza dagli aiuti internazionali e rafforzare ricerca, produzione e catene di fornitura.
Intelligenza artificiale per la salute sessuale in America Latina
Gruppi in Perù e Argentina usano intelligenza artificiale per dare informazioni su salute sessuale e riproduttiva, con progetti per giovani e comunità marginalizzate. Esperti avvertono però rischi per le persone transgender e chiedono regole e dati migliori.