LingVo.club
Livello
Perché l'intelligenza artificiale produce risultati ingiusti — Livello B2 — a group of people standing next to each other

Perché l'intelligenza artificiale produce risultati ingiustiCEFR B2

6 dic 2025

Livello B2 – Intermedio-avanzato
5 min
267 parole

Gli strumenti di intelligenza artificiale si sono diffusi rapidamente: ad aprile ChatGPT di OpenAI ha raggiunto un miliardo di utenti attivi settimanali. Parallelamente, giornalisti e ricercatori hanno documentato casi in cui sistemi di AI hanno prodotto risultati discriminatori, ad esempio differenze nei trattamenti medici e esclusione di candidate donne o persone nere nei processi di selezione.

Una nuova ricerca dell'University of Texas at Austin, condotta da Hüseyin Tanriverdi insieme al dottorando John-Patrick Akinyemi (McCombs, IROM), ha analizzato un insieme di 363 algoritmi ritenuti faziosi, raccolti nell'archivio AI Algorithmic and Automation Incidents and Controversies. Per ogni algoritmo segnalato i ricercatori hanno trovato un algoritmo simile non segnalato e hanno studiato sia i modelli sia le organizzazioni che li usavano.

Lo studio individua tre fattori collegati che aumentano il rischio di esiti ingiusti:

  • Verità di base: quando non esiste un criterio oggettivo consolidato, come nel caso di stime dell'età di un osso da una radiografia o nella valutazione controversa di un post sui social.
  • Complessità del mondo reale: i modelli possono omettere variabili importanti, come quando decisioni automatizzate sui benefici Medicaid in Arkansas hanno sostituito visite domiciliari infermieristiche e hanno privato persone con disabilità di assistenza per mangiare e lavarsi.
  • Coinvolgimento degli interessati: sistemi progettati da un unico gruppo demografico rischiano di ignorare bisogni diversi; coinvolgere stakeholder multipli aiuta a trovare compromessi accettabili.

I ricercatori concludono che ridurre il bias richiede più della semplice accuratezza: gli sviluppatori devono «aprire le scatole nere», tenere conto della complessità del mondo reale, raccogliere input diversificati e definire verità di base chiare. Lo studio è pubblicato su MIS Quarterly. Fonte: UT Austin.

Parole difficili

  • discriminatorioche tratta persone in modo ingiusto
    discriminatori
  • algoritmoprocedura o insieme di regole informatiche
    algoritmi
  • faziosoche mostra parzialità o pregiudizio
    faziosi
  • verità di basecriterio oggettivo o standard di riferimento
  • complessitàpresenza di molte variabili e fattori
  • coinvolgimentopartecipazione diretta delle persone interessate
  • accuratezzagrado di precisione o correttezza dei risultati
  • scatola nerasistema il cui funzionamento non è chiaro
    scatole nere

Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.

Domande di discussione

  • In che modo il coinvolgimento di diversi interessati può ridurre esiti ingiusti degli algoritmi? Fai esempi pratici.
  • Quali problemi concreti possono nascere nel tentativo di «aprire le scatole nere» dei sistemi di AI?
  • Come si potrebbe definire una verità di base chiara in un caso controverso, ad esempio nella valutazione di contenuti sui social?

Articoli correlati

Perché l'intelligenza artificiale produce risultati ingiusti — Italiano Livello B2 | LingVo.club