Gruppi e ricercatrici in America Latina sviluppano sistemi di intelligenza artificiale aperti e locali per studiare e ridurre disuguaglianze e violenza di genere. L'obiettivo è proteggere dati sensibili e offrire migliori elementi di prova a governi e società civile, perché molti algoritmi delle grandi aziende riflettono pregiudizi che non corrispondono alle realtà locali.
DataGénero, fondato da Ivana Feldfeber in Argentina, ha creato AymurAI: un programma a codice aperto che cerca informazioni nei documenti dei tribunali. AymurAI raccoglie il materiale senza interpretarlo e invia esattamente ciò che trova a un database. È stato sviluppato prima dell'ascesa di ChatGPT e, dall'introduzione nel 2021, è stato impiegato in tribunali in Argentina, Cile e Costa Rica; il database contiene oltre 10.000 sentenze giudiziarie. Lo strumento è installato su server locali per tutelare sicurezza e riservatezza. Ha ricevuto finanziamenti dal International Development Research Centre (IDRC) del Canada e dalla Patrick McGovern Foundation. Il team prevede di aggiungere una funzione di trascrizione audio che, una volta validata, potrebbe conservare le testimonianze in modo che le vittime non debbano ripetere eventi traumatici, e anonimizzare dettagli sensibili come gli indirizzi.
Organizzazioni come Derechos Digitales, guidata da Jamila Venturini, avvertono che sistemi costruiti lontano dalla regione possono importare visioni non adatte a esigenze locali su genere, razza, età e abilità. In Messico, Cristina Martínez Pinto ha fondato PIT Policy Lab nel 2021 e, lavorando con lo stato di Guanajuato, ha usato l'IA per prevedere abbandoni scolastici: il team ha scoperto che 4.000 giovani erano stati identificati erroneamente come non a rischio. PIT ha introdotto strumenti a codice aperto per rilevare bias e formazione per funzionari sui diritti umani e il genere. Il ricercatore Daniel Yankelevich (Fundar) sottolinea che i comportamenti variano per cultura e che i modelli devono essere addestrati con dati locali per evitare l'esportazione di bias.
- Migliorare i dati di addestramento
- Aggiungere funzioni tecniche come la trascrizione audio
- Rafforzare le tutele e promuovere politiche pubbliche
Parole difficili
- disuguaglianza — differenza di condizioni sociali o economichedisuguaglianze
- violenza di genere — abusi motivati dal sesso o ruolo sociale
- codice aperto — programma il cui codice è pubblico
- anonimizzare — rendere non riconoscibile una persona nei dati
- pregiudizio — opinione negativa o distorta su un gruppopregiudizi
- addestramento — processo di preparare dati per modelli
- tutelare — proteggere qualcosa da rischio o danno
- trascrizione — conversione di audio parlato in testo scritto
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Quali vantaggi e rischi vedi nell'usare strumenti a codice aperto per casi di violenza di genere?
- Perché, secondo il testo, è importante addestrare i modelli con dati locali? Fai esempi pratici.
- Come potrebbe cambiare l'esperienza delle vittime l'introduzione della trascrizione audio e dell'anonimizzazione?
Articoli correlati
Protesi robotica e percezione del proprio movimento
Una ricerca su persone senza disabilità ha studiato come si incorpora una protesi robotica dell'arto inferiore nell'immagine corporea. Le prestazioni sono migliorate ma le valutazioni personali dei movimenti sono rimaste imprecise e sono cambiate con la pratica.
Archivi cittadini salvano tradizioni orali del Sud Asia
Archivisti cittadini in Sud Asia registrano canti, storie, indovinelli e conoscenze tradizionali per conservarle. Il progetto “Enhancing Indic oral culture on Wikimedia projects” aiuta i parlanti nativi a caricare e trascrivere i materiali su piattaforme Wikimedia.