Gli strumenti di intelligenza artificiale stanno crescendo rapidamente e, mentre alcuni hanno molti utenti, emergono anche danni dovuti al bias. Resoconti recenti indicano che sistemi faziosi hanno portato a trattamenti medici differenti e discriminazioni nelle selezioni del personale.
Una ricerca dell'University of Texas at Austin, guidata da Hüseyin Tanriverdi, ha analizzato un insieme di 363 algoritmi che altri avevano identificato come faziosi, presi dall'archivio AI Algorithmic and Automation Incidents and Controversies. I ricercatori hanno confrontato ogni algoritmo problematico con un algoritmo simile non segnalato e hanno esaminato anche le organizzazioni che li usavano.
Lo studio individua tre fattori che aumentano il rischio di risultati ingiusti: mancanza di una verità di base chiara, la semplificazione della complessità del mondo reale (con omissione di variabili importanti) e il limitato coinvolgimento di gruppi diversi. Per ridurre il bias servono più trasparenza e input diversificati dagli sviluppatori.
Parole difficili
- bias — pregiudizio che causa risultati non equi
- algoritmo — programma matematico che prende decisioni o calcolialgoritmi
- fazioso — che mostra preferenza ingiusta verso qualcunofaziosi
- discriminazione — trattamento ingiusto di persone per un motivodiscriminazioni
- trasparenza — chiarezza sulle azioni e sulle decisioni
- coinvolgimento — partecipazione o presenza attiva di persone
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Cosa pensi della richiesta di più trasparenza negli strumenti di intelligenza artificiale? Perché?
- Come potrebbe il coinvolgimento di gruppi diversi migliorare i risultati degli algoritmi? Spiega in poche frasi.
- Se dovessi usare uno strumento con IA al lavoro, quali informazioni vorresti sapere prima di iniziare a usarlo?
Articoli correlati
OSIA: l'intelligenza artificiale per l'orientamento scolastico in Camerun
OSIA è una piattaforma creata da Frédéric Ngaba per aiutare gli studenti delle scuole secondarie in Camerun a scegliere studi e carriere. Offre un tutor virtuale in 20 lingue e una banca di oltre 400 test.
I modelli linguistici cambiano giudizio se conoscono l'autore
Ricercatori dell'University of Zurich mostrano che i grandi modelli linguistici valutano diversamente lo stesso testo quando viene indicata l'identità dell'autore. Lo studio rileva pregiudizi nascosti, incluso un forte bias anti‑cinese.
Le missioni spaziali dell'India suscitano un dibattito sul finanziamento della scienza
Le missioni spaziali dell'India sono state celebrate, ma i scienziati si interrogano sul finanziamento di altri progetti scientifici.
Tessuto cerebrale creato senza materiali animali
Scienziati guidati da Iman Noshadi hanno ottenuto tessuto simile al cervello senza usare rivestimenti di origine animale. Il materiale a impalcatura in PEG permette la crescita di cellule donate e può aiutare studi su malattie neurologiche.
Progetti vincitori per combattere la disinformazione nelle elezioni
Tre progetti innovativi dimostrano come la tecnologia possa migliorare la trasparenza e il fact-checking durante le elezioni.
Diagnostica AI per affrontare la crisi sanitaria in Sudan
Le autorità sanitarie sudanesi usano l'AI per rafforzare il sistema sanitario dopo la guerra civile. L'AI può aiutare dove mancano i medici e le risorse.