Gli strumenti di intelligenza artificiale si sono diffusi rapidamente: ad aprile ChatGPT di OpenAI ha raggiunto un miliardo di utenti attivi settimanali. Parallelamente, giornalisti e ricercatori hanno documentato casi in cui sistemi di AI hanno prodotto risultati discriminatori, ad esempio differenze nei trattamenti medici e esclusione di candidate donne o persone nere nei processi di selezione.
Una nuova ricerca dell'University of Texas at Austin, condotta da Hüseyin Tanriverdi insieme al dottorando John-Patrick Akinyemi (McCombs, IROM), ha analizzato un insieme di 363 algoritmi ritenuti faziosi, raccolti nell'archivio AI Algorithmic and Automation Incidents and Controversies. Per ogni algoritmo segnalato i ricercatori hanno trovato un algoritmo simile non segnalato e hanno studiato sia i modelli sia le organizzazioni che li usavano.
Lo studio individua tre fattori collegati che aumentano il rischio di esiti ingiusti:
- Verità di base: quando non esiste un criterio oggettivo consolidato, come nel caso di stime dell'età di un osso da una radiografia o nella valutazione controversa di un post sui social.
- Complessità del mondo reale: i modelli possono omettere variabili importanti, come quando decisioni automatizzate sui benefici Medicaid in Arkansas hanno sostituito visite domiciliari infermieristiche e hanno privato persone con disabilità di assistenza per mangiare e lavarsi.
- Coinvolgimento degli interessati: sistemi progettati da un unico gruppo demografico rischiano di ignorare bisogni diversi; coinvolgere stakeholder multipli aiuta a trovare compromessi accettabili.
I ricercatori concludono che ridurre il bias richiede più della semplice accuratezza: gli sviluppatori devono «aprire le scatole nere», tenere conto della complessità del mondo reale, raccogliere input diversificati e definire verità di base chiare. Lo studio è pubblicato su MIS Quarterly. Fonte: UT Austin.
Parole difficili
- discriminatorio — che tratta persone in modo ingiustodiscriminatori
- algoritmo — procedura o insieme di regole informatichealgoritmi
- fazioso — che mostra parzialità o pregiudiziofaziosi
- verità di base — criterio oggettivo o standard di riferimento
- complessità — presenza di molte variabili e fattori
- coinvolgimento — partecipazione diretta delle persone interessate
- accuratezza — grado di precisione o correttezza dei risultati
- scatola nera — sistema il cui funzionamento non è chiaroscatole nere
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- In che modo il coinvolgimento di diversi interessati può ridurre esiti ingiusti degli algoritmi? Fai esempi pratici.
- Quali problemi concreti possono nascere nel tentativo di «aprire le scatole nere» dei sistemi di AI?
- Come si potrebbe definire una verità di base chiara in un caso controverso, ad esempio nella valutazione di contenuti sui social?
Articoli correlati
Un dispositivo non invasivo per misurare la viscosità del sangue
Ricercatori della University of Missouri hanno sviluppato una tecnologia non invasiva che monitora in tempo reale la viscosità del sangue. Il metodo usa onde ultrasoniche e software e potrebbe portare a dispositivi portatili a basso costo.
I microbi nei pellet rivelano l'età di un'infestazione di termiti
Ricercatori hanno studiato i microbi negli escrementi delle termiti (pellet) per distinguere pellet freschi da pellet vecchi. La quantità di DNA batterico cala molto nel tempo, e il metodo potrebbe diventare un test rapido sul posto.