Gruppi e ricercatrici in America Latina sviluppano sistemi di intelligenza artificiale aperti e locali per studiare e ridurre disuguaglianze e violenza di genere. L'obiettivo è proteggere dati sensibili e offrire migliori elementi di prova a governi e società civile, perché molti algoritmi delle grandi aziende riflettono pregiudizi che non corrispondono alle realtà locali.
DataGénero, fondato da Ivana Feldfeber in Argentina, ha creato AymurAI: un programma a codice aperto che cerca informazioni nei documenti dei tribunali. AymurAI raccoglie il materiale senza interpretarlo e invia esattamente ciò che trova a un database. È stato sviluppato prima dell'ascesa di ChatGPT e, dall'introduzione nel 2021, è stato impiegato in tribunali in Argentina, Cile e Costa Rica; il database contiene oltre 10.000 sentenze giudiziarie. Lo strumento è installato su server locali per tutelare sicurezza e riservatezza. Ha ricevuto finanziamenti dal International Development Research Centre (IDRC) del Canada e dalla Patrick McGovern Foundation. Il team prevede di aggiungere una funzione di trascrizione audio che, una volta validata, potrebbe conservare le testimonianze in modo che le vittime non debbano ripetere eventi traumatici, e anonimizzare dettagli sensibili come gli indirizzi.
Organizzazioni come Derechos Digitales, guidata da Jamila Venturini, avvertono che sistemi costruiti lontano dalla regione possono importare visioni non adatte a esigenze locali su genere, razza, età e abilità. In Messico, Cristina Martínez Pinto ha fondato PIT Policy Lab nel 2021 e, lavorando con lo stato di Guanajuato, ha usato l'IA per prevedere abbandoni scolastici: il team ha scoperto che 4.000 giovani erano stati identificati erroneamente come non a rischio. PIT ha introdotto strumenti a codice aperto per rilevare bias e formazione per funzionari sui diritti umani e il genere. Il ricercatore Daniel Yankelevich (Fundar) sottolinea che i comportamenti variano per cultura e che i modelli devono essere addestrati con dati locali per evitare l'esportazione di bias.
- Migliorare i dati di addestramento
- Aggiungere funzioni tecniche come la trascrizione audio
- Rafforzare le tutele e promuovere politiche pubbliche
Parole difficili
- disuguaglianza — differenza di condizioni sociali o economichedisuguaglianze
- violenza di genere — abusi motivati dal sesso o ruolo sociale
- codice aperto — programma il cui codice è pubblico
- anonimizzare — rendere non riconoscibile una persona nei dati
- pregiudizio — opinione negativa o distorta su un gruppopregiudizi
- addestramento — processo di preparare dati per modelli
- tutelare — proteggere qualcosa da rischio o danno
- trascrizione — conversione di audio parlato in testo scritto
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Quali vantaggi e rischi vedi nell'usare strumenti a codice aperto per casi di violenza di genere?
- Perché, secondo il testo, è importante addestrare i modelli con dati locali? Fai esempi pratici.
- Come potrebbe cambiare l'esperienza delle vittime l'introduzione della trascrizione audio e dell'anonimizzazione?
Articoli correlati
Quando dare un cellulare? Il ritorno al telefono fisso
Molti genitori si chiedono quando dare un cellulare ai figli. Alcune famiglie stanno tornando al telefono fisso; esperti di Virginia Tech dicono che il cambiamento riflette preoccupazioni sugli smartphone e offre benefici da considerare.
Persone con degenerazione maculare stimano l'arrivo delle auto
Uno studio con realtà virtuale ha confrontato adulti con degenerazione maculare legata all'età e adulti con visione normale nella stima del tempo di arrivo di un veicolo. I risultati mostrano performance simili e nessun vantaggio aggiuntivo dalla combinazione vista+suono.
Archivi cittadini salvano tradizioni orali del Sud Asia
Archivisti cittadini in Sud Asia registrano canti, storie, indovinelli e conoscenze tradizionali per conservarle. Il progetto “Enhancing Indic oral culture on Wikimedia projects” aiuta i parlanti nativi a caricare e trascrivere i materiali su piattaforme Wikimedia.
Come l'intelligenza artificiale generativa cambia la disinformazione
In un'intervista del 12 novembre 2025 Laura Jasper (HCSS) spiega come l'AI generativa renda la disinformazione più veloce, ampia e personalizzata. Suggerisce misure per attribuire responsabilità, misurare gli effetti sui comportamenti e rafforzare la fiducia sociale.