Gli strumenti di intelligenza artificiale stanno crescendo rapidamente e, mentre alcuni hanno molti utenti, emergono anche danni dovuti al bias. Resoconti recenti indicano che sistemi faziosi hanno portato a trattamenti medici differenti e discriminazioni nelle selezioni del personale.
Una ricerca dell'University of Texas at Austin, guidata da Hüseyin Tanriverdi, ha analizzato un insieme di 363 algoritmi che altri avevano identificato come faziosi, presi dall'archivio AI Algorithmic and Automation Incidents and Controversies. I ricercatori hanno confrontato ogni algoritmo problematico con un algoritmo simile non segnalato e hanno esaminato anche le organizzazioni che li usavano.
Lo studio individua tre fattori che aumentano il rischio di risultati ingiusti: mancanza di una verità di base chiara, la semplificazione della complessità del mondo reale (con omissione di variabili importanti) e il limitato coinvolgimento di gruppi diversi. Per ridurre il bias servono più trasparenza e input diversificati dagli sviluppatori.
Parole difficili
- bias — pregiudizio che causa risultati non equi
- algoritmo — programma matematico che prende decisioni o calcolialgoritmi
- fazioso — che mostra preferenza ingiusta verso qualcunofaziosi
- discriminazione — trattamento ingiusto di persone per un motivodiscriminazioni
- trasparenza — chiarezza sulle azioni e sulle decisioni
- coinvolgimento — partecipazione o presenza attiva di persone
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Cosa pensi della richiesta di più trasparenza negli strumenti di intelligenza artificiale? Perché?
- Come potrebbe il coinvolgimento di gruppi diversi migliorare i risultati degli algoritmi? Spiega in poche frasi.
- Se dovessi usare uno strumento con IA al lavoro, quali informazioni vorresti sapere prima di iniziare a usarlo?
Articoli correlati
Un indossabile con AI per rilevare la fragilità negli anziani
Ricercatori hanno creato una manica indossabile che usa intelligenza artificiale per identificare segnali precoci di fragilità negli anziani. Il dispositivo analizza i passi sulla coscia e invia i risultati a uno smartphone.
Mini‑Nettuni: forse superfici solide sotto atmosfere pesanti
Uno studio guidato da Eliza Kempton (University of Chicago) rivede l'idea che molti mini‑Nettuni siano mondi di lava. Dati del James Webb su GJ 1214 b e simulazioni mostrano che atmosfere pesanti possono mantenere superfici solide.
Nuovo strumento a luce per misurare le cellule cerebrali
Ricercatori hanno sviluppato CaBLAM, uno strumento che usa la bioluminescenza per registrare l'attività dentro cellule cerebrali viventi. Permette registrazioni di ore senza luce esterna e funziona in modelli animali come topi e zebrafish.