IA e responsabilità: chi decide e chi subisceCEFR B1
21 apr 2026
Adattato da Guest Contributor, Global Voices • CC BY 3.0
Foto di Marija Zaric, Unsplash
Hija Kamran, caporedattrice di GenderIT.org e stratega per i diritti nel Women's Rights Programme di APC, esprime cautela verso le nuove tecnologie. Racconta di essere spesso un'adozione tardiva e di osservare pattern preoccupanti nello sviluppo dei sistemi di IA.
Osserva che le aziende tecnologiche ripetutamente privilegiano modelli di business e pubblicità rispetto alle persone. Riporta una frase attribuita a un noto dirigente e la risposta di un rappresentante aziendale che le disse: «Incito le persone a leggere i nostri termini di servizio», una reazione che evidenzia scarsa trasparenza e responsabilità.
Spiega che la tecnologia non è neutra: sistemi progettati da attori specifici riflettono visioni del mondo particolari. I dati di addestramento, presi da Internet e registri pubblici, portano storie di esclusione, razzismo, sessismo e disuguaglianza economica; l'IA può codificare e amplificare questi danni.
Sottolinea anche il rischio di deumanizzazione, specialmente in contesti militarizzati in cui le persone diventano punti dati e bersagli. Propone un approccio basato sui diritti umani, scetticismo fin dalle prime fasi e domande chiare su chi costruisce i sistemi, come funzionano e chi ne trae vantaggio.
Parole difficili
- trasparenza — chiarezza su processi e informazioni
- responsabilità — dovere di rispondere delle proprie azioni
- addestramento — processo di preparare un sistema con dati
- deumanizzazione — trattare le persone come oggetti o numeri
- disuguaglianza — differenze ingiuste tra gruppi di persone
- termini di servizio — regole che spiegano l'uso di un servizio
- modello di business — modo in cui un'azienda guadagna soldimodelli di business
- scetticismo — atteggiamento di dubbio e prudente attenzione
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Sei d'accordo che la tecnologia non è neutra? Perché?
- Quali domande chiare chiederesti a chi costruisce un sistema di IA?
- Come si può proteggere la dignità delle persone quando si usano dati e algoritmi?
Articoli correlati
Bangladesh: Hasina rimossa e Kamal condannato
Dopo una rivolta studentesca nel luglio 2024 la premier Sheikh Hasina è stata rimossa il 5 agosto 2024. L'ex ministro Asaduzzaman Khan Kamal è stato condannato a morte il 17 novembre 2025 dal tribunale per crimini collegati alla rivolta.
Una mappa biologica collega cellule e reti cerebrali
Un nuovo studio su Nature Communications combina immagini cerebrali, dati genetici e mappe molecolari per mostrare come l’organizzazione cellulare sostenga le reti viste con la fMRI. I risultati possono aiutare a capire depressione, schizofrenia e Alzheimer.
VillainNet: falla nelle auto a guida autonoma
Ricercatori della Georgia Tech hanno scoperto VillainNet, una backdoor nascosta nelle «super network» delle auto a guida autonoma che può attivarsi e prendere il controllo del veicolo. Lo studio è stato presentato all'ACM CCS nell'ottobre 2025.
Indonesia rafforza le regole per le piattaforme digitali
Il governo indonesiano intensifica la regolazione delle piattaforme digitali, chiedendo trasparenza sugli algoritmi e imponendo registrazioni, rimozioni e multe. La scelta ha provocato controversie, proteste e critiche sulla chiarezza delle norme.