Gruppi e ricercatrici in America Latina sviluppano sistemi di intelligenza artificiale aperti e locali per studiare e ridurre disuguaglianze e violenza di genere. L'obiettivo è proteggere dati sensibili e offrire migliori elementi di prova a governi e società civile, perché molti algoritmi delle grandi aziende riflettono pregiudizi che non corrispondono alle realtà locali.
DataGénero, fondato da Ivana Feldfeber in Argentina, ha creato AymurAI: un programma a codice aperto che cerca informazioni nei documenti dei tribunali. AymurAI raccoglie il materiale senza interpretarlo e invia esattamente ciò che trova a un database. È stato sviluppato prima dell'ascesa di ChatGPT e, dall'introduzione nel 2021, è stato impiegato in tribunali in Argentina, Cile e Costa Rica; il database contiene oltre 10.000 sentenze giudiziarie. Lo strumento è installato su server locali per tutelare sicurezza e riservatezza. Ha ricevuto finanziamenti dal International Development Research Centre (IDRC) del Canada e dalla Patrick McGovern Foundation. Il team prevede di aggiungere una funzione di trascrizione audio che, una volta validata, potrebbe conservare le testimonianze in modo che le vittime non debbano ripetere eventi traumatici, e anonimizzare dettagli sensibili come gli indirizzi.
Organizzazioni come Derechos Digitales, guidata da Jamila Venturini, avvertono che sistemi costruiti lontano dalla regione possono importare visioni non adatte a esigenze locali su genere, razza, età e abilità. In Messico, Cristina Martínez Pinto ha fondato PIT Policy Lab nel 2021 e, lavorando con lo stato di Guanajuato, ha usato l'IA per prevedere abbandoni scolastici: il team ha scoperto che 4.000 giovani erano stati identificati erroneamente come non a rischio. PIT ha introdotto strumenti a codice aperto per rilevare bias e formazione per funzionari sui diritti umani e il genere. Il ricercatore Daniel Yankelevich (Fundar) sottolinea che i comportamenti variano per cultura e che i modelli devono essere addestrati con dati locali per evitare l'esportazione di bias.
- Migliorare i dati di addestramento
- Aggiungere funzioni tecniche come la trascrizione audio
- Rafforzare le tutele e promuovere politiche pubbliche
Parole difficili
- disuguaglianza — differenza di condizioni sociali o economichedisuguaglianze
- violenza di genere — abusi motivati dal sesso o ruolo sociale
- codice aperto — programma il cui codice è pubblico
- anonimizzare — rendere non riconoscibile una persona nei dati
- pregiudizio — opinione negativa o distorta su un gruppopregiudizi
- addestramento — processo di preparare dati per modelli
- tutelare — proteggere qualcosa da rischio o danno
- trascrizione — conversione di audio parlato in testo scritto
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Quali vantaggi e rischi vedi nell'usare strumenti a codice aperto per casi di violenza di genere?
- Perché, secondo il testo, è importante addestrare i modelli con dati locali? Fai esempi pratici.
- Come potrebbe cambiare l'esperienza delle vittime l'introduzione della trascrizione audio e dell'anonimizzazione?
Articoli correlati
Intelligenza artificiale aiuta a rilevare il melanoma
Ricercatori della University of Missouri testano l'AI per individuare il melanoma analizzando immagini cutanee 3D. Hanno usato 400.000 immagini e tre modelli: insieme hanno superato il 92% di accuratezza; l'AI è uno strumento di supporto.
Sportellino: il chatbot che aiuta i migranti in Italia
Sportellino è un chatbot multilingue lanciato per rispondere ai bisogni pratici dei migranti. Fornisce informazioni passo dopo passo su documenti e servizi, è gratuito, anonimo e disponibile sempre tramite WhatsApp o Telegram.