LingVo.club
Livello
IA in America Latina per contrastare violenza e disuguaglianze — Livello B2 — grayscale photography of women marching

IA in America Latina per contrastare violenza e disuguaglianzeCEFR B2

18 nov 2025

Adattato da Martín De Ambrosio, SciDev CC BY 2.0

Foto di L'Odyssée Belle, Unsplash

Livello B2 – Intermedio-avanzato
6 min
318 parole

Gruppi e ricercatrici in America Latina sviluppano sistemi di intelligenza artificiale aperti e locali per studiare e ridurre disuguaglianze e violenza di genere. L'obiettivo è proteggere dati sensibili e offrire migliori elementi di prova a governi e società civile, perché molti algoritmi delle grandi aziende riflettono pregiudizi che non corrispondono alle realtà locali.

DataGénero, fondato da Ivana Feldfeber in Argentina, ha creato AymurAI: un programma a codice aperto che cerca informazioni nei documenti dei tribunali. AymurAI raccoglie il materiale senza interpretarlo e invia esattamente ciò che trova a un database. È stato sviluppato prima dell'ascesa di ChatGPT e, dall'introduzione nel 2021, è stato impiegato in tribunali in Argentina, Cile e Costa Rica; il database contiene oltre 10.000 sentenze giudiziarie. Lo strumento è installato su server locali per tutelare sicurezza e riservatezza. Ha ricevuto finanziamenti dal International Development Research Centre (IDRC) del Canada e dalla Patrick McGovern Foundation. Il team prevede di aggiungere una funzione di trascrizione audio che, una volta validata, potrebbe conservare le testimonianze in modo che le vittime non debbano ripetere eventi traumatici, e anonimizzare dettagli sensibili come gli indirizzi.

Organizzazioni come Derechos Digitales, guidata da Jamila Venturini, avvertono che sistemi costruiti lontano dalla regione possono importare visioni non adatte a esigenze locali su genere, razza, età e abilità. In Messico, Cristina Martínez Pinto ha fondato PIT Policy Lab nel 2021 e, lavorando con lo stato di Guanajuato, ha usato l'IA per prevedere abbandoni scolastici: il team ha scoperto che 4.000 giovani erano stati identificati erroneamente come non a rischio. PIT ha introdotto strumenti a codice aperto per rilevare bias e formazione per funzionari sui diritti umani e il genere. Il ricercatore Daniel Yankelevich (Fundar) sottolinea che i comportamenti variano per cultura e che i modelli devono essere addestrati con dati locali per evitare l'esportazione di bias.

  • Migliorare i dati di addestramento
  • Aggiungere funzioni tecniche come la trascrizione audio
  • Rafforzare le tutele e promuovere politiche pubbliche

Parole difficili

  • disuguaglianzadifferenza di condizioni sociali o economiche
    disuguaglianze
  • violenza di genereabusi motivati dal sesso o ruolo sociale
  • codice apertoprogramma il cui codice è pubblico
  • anonimizzarerendere non riconoscibile una persona nei dati
  • pregiudizioopinione negativa o distorta su un gruppo
    pregiudizi
  • addestramentoprocesso di preparare dati per modelli
  • tutelareproteggere qualcosa da rischio o danno
  • trascrizioneconversione di audio parlato in testo scritto

Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.

Domande di discussione

  • Quali vantaggi e rischi vedi nell'usare strumenti a codice aperto per casi di violenza di genere?
  • Perché, secondo il testo, è importante addestrare i modelli con dati locali? Fai esempi pratici.
  • Come potrebbe cambiare l'esperienza delle vittime l'introduzione della trascrizione audio e dell'anonimizzazione?

Articoli correlati