LingVo.club
Niveau
AI in Latijns‑Amerika tegen genderongelijkheid — Niveau B2 — grayscale photography of women marching

AI in Latijns‑Amerika tegen genderongelijkheidCEFR B2

18 nov 2025

Gebaseerd op Martín De Ambrosio, SciDev CC BY 2.0

Foto door L'Odyssée Belle, Unsplash

Niveau B2 – Hoger-midden
5 min
294 woorden

Groepen in Latijns‑Amerika bouwen lokale, open AI-systemen om genderongelijkheid en geweld te bestuderen en te verminderen. Een belangrijk voorbeeld is DataGénero in Argentinië, waar Ivana Feldfeber AymurAI ontwikkelde. AymurAI doorzoekt gerechtelijke documenten, verzamelt materiaal zonder het te interpreteren en stuurt precies wat het vindt naar een database. Het programma draait op lokale servers om veiligheid en vertrouwelijkheid te waarborgen. Sinds de introductie in 2021 is AymurAI in rechtbanken in Argentinië, Chili en Costa Rica in gebruik en de dataset bevat meer dan 10.000 vonnissen. Het project kreeg financiering van Canada’s IDRC en de Patrick McGovern Foundation. Het team wil een gevalideerde audio‑naar‑tekstfunctie toevoegen, zodat getuigenissen bewaard worden en slachtoffers niet herhaaldelijk traumatisch hoeven te vertellen.

Andere initiatieven werken anders, maar met vergelijkbare doelen. Derechos Digitales, geleid door Jamila Venturini, analyseert technologiebeleid en bevordert feministische perspectieven op digitale rechten. Venturini waarschuwt dat veel AI ver van de regio is gebouwd en daardoor wereldbeelden weerspiegelt die niet overeenkomen met lokale eisen rond gender, ras, leeftijd en vermogen. Zij stelt dat privacy, rechtvaardigheid en gelijkheid vanaf het begin in AI moeten zitten; zwakke gegevensbescherming verzwakt mensenrechtelijke garanties en vermindert de betrouwbaarheid van systemen.

In Mexico richtte Cristina Martínez Pinto in 2021 PIT Policy Lab op en werkte met de staat Guanajuato. Hun AI‑onderzoek naar schooluitval toonde aan dat 4.000 jongeren ten onrechte als niet‑risico waren aangemerkt. Ze brachten open‑sourcetools om vooringenomenheid op te sporen en gaven trainingen aan ambtenaren over mensenrechten en gender in AI. Daniel Yankelevich van Fundar benadrukt dat gedrag per cultuur verschilt en dat voorspellende systemen op lokale data moeten worden getraind om geëxporteerde vooroordelen te vermijden.

Veel projecten noemen de volgende stappen:

  • betere trainingsdata verzamelen,
  • extra technische functies zoals audio‑transcriptie,
  • sterkere beschermingskaders en beleid bevorderen.

Moeilijke woorden

  • genderongelijkheidongelijke behandeling van mannen en vrouwen
  • vertrouwelijkheidbehoud van privacy en geheimhouding van informatie
  • vonnisschriftelijke beslissing van een rechtbank
    vonnissen
  • datasetgrote verzameling van gestructureerde gegevens voor analyse
  • vooringenomenheidsystematische vertekening of oneerlijke behandeling
  • validerencontroleren of iets correct en betrouwbaar is
    gevalideerde

Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.

Discussievragen

  • Wat zijn mogelijke voordelen en risico's van het toevoegen van een audio‑naar‑tekstfunctie voor getuigenissen, zoals genoemd in de tekst?
  • Waarom is het volgens de tekst belangrijk om voorspellende systemen op lokale data te trainen? Geef voorbeelden of gevolgen.
  • Welke van de genoemde volgende stappen (betere trainingsdata, audio‑transcriptie, sterkere beschermingskaders) vind jij het meest belangrijk en waarom?

Gerelateerde artikelen