Groepen in Latijns‑Amerika bouwen lokale, open AI-systemen om genderongelijkheid en geweld te bestuderen en te verminderen. Een belangrijk voorbeeld is DataGénero in Argentinië, waar Ivana Feldfeber AymurAI ontwikkelde. AymurAI doorzoekt gerechtelijke documenten, verzamelt materiaal zonder het te interpreteren en stuurt precies wat het vindt naar een database. Het programma draait op lokale servers om veiligheid en vertrouwelijkheid te waarborgen. Sinds de introductie in 2021 is AymurAI in rechtbanken in Argentinië, Chili en Costa Rica in gebruik en de dataset bevat meer dan 10.000 vonnissen. Het project kreeg financiering van Canada’s IDRC en de Patrick McGovern Foundation. Het team wil een gevalideerde audio‑naar‑tekstfunctie toevoegen, zodat getuigenissen bewaard worden en slachtoffers niet herhaaldelijk traumatisch hoeven te vertellen.
Andere initiatieven werken anders, maar met vergelijkbare doelen. Derechos Digitales, geleid door Jamila Venturini, analyseert technologiebeleid en bevordert feministische perspectieven op digitale rechten. Venturini waarschuwt dat veel AI ver van de regio is gebouwd en daardoor wereldbeelden weerspiegelt die niet overeenkomen met lokale eisen rond gender, ras, leeftijd en vermogen. Zij stelt dat privacy, rechtvaardigheid en gelijkheid vanaf het begin in AI moeten zitten; zwakke gegevensbescherming verzwakt mensenrechtelijke garanties en vermindert de betrouwbaarheid van systemen.
In Mexico richtte Cristina Martínez Pinto in 2021 PIT Policy Lab op en werkte met de staat Guanajuato. Hun AI‑onderzoek naar schooluitval toonde aan dat 4.000 jongeren ten onrechte als niet‑risico waren aangemerkt. Ze brachten open‑sourcetools om vooringenomenheid op te sporen en gaven trainingen aan ambtenaren over mensenrechten en gender in AI. Daniel Yankelevich van Fundar benadrukt dat gedrag per cultuur verschilt en dat voorspellende systemen op lokale data moeten worden getraind om geëxporteerde vooroordelen te vermijden.
Veel projecten noemen de volgende stappen:
- betere trainingsdata verzamelen,
- extra technische functies zoals audio‑transcriptie,
- sterkere beschermingskaders en beleid bevorderen.
Moeilijke woorden
- genderongelijkheid — ongelijke behandeling van mannen en vrouwen
- vertrouwelijkheid — behoud van privacy en geheimhouding van informatie
- vonnis — schriftelijke beslissing van een rechtbankvonnissen
- dataset — grote verzameling van gestructureerde gegevens voor analyse
- vooringenomenheid — systematische vertekening of oneerlijke behandeling
- valideren — controleren of iets correct en betrouwbaar isgevalideerde
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Wat zijn mogelijke voordelen en risico's van het toevoegen van een audio‑naar‑tekstfunctie voor getuigenissen, zoals genoemd in de tekst?
- Waarom is het volgens de tekst belangrijk om voorspellende systemen op lokale data te trainen? Geef voorbeelden of gevolgen.
- Welke van de genoemde volgende stappen (betere trainingsdata, audio‑transcriptie, sterkere beschermingskaders) vind jij het meest belangrijk en waarom?
Gerelateerde artikelen
Elastisch oor gemaakt van menselijke cellen in het lab
Onderzoekers in Zwitserland produceerden elastisch oorkraakbeen uit menselijke cellen en testten de constructen in een diermodel. De geprinte oren bleven vorm en elasticiteit behouden; volgende stappen zijn klinische studies en formele goedkeuring.
AI helpt niet‑autistische mensen autistische communicatie begrijpen
Onderzoekers van Tufts ontwikkelden NeuroBridge, een AI-hulpmiddel dat niet‑autistische mensen leert hun communicatie aan te passen zodat autistische communicatie beter wordt begrepen. Het systeem werd getest en het team wil het gebruik op de campus verkennen.
Nieuwe AI-hulpmiddelen voor tuberculose getoond in Kopenhagen
Onderzoekers presenteerden op de Union World Conference on Lung Health (18-21 November) meerdere AI-hulpmiddelen voor opsporing en opvolging van tuberculose. De tools variëren van adem- en hoesttests tot kaarten en een röntgenhulpmiddel voor kinderen.
Mogelijke eerste Anopheles stephensi in Madagascar gevonden met AI en burgerfoto's
Onderzoekers gebruikten AI en door burgers ingezonden smartphonefoto's om wat zij menen de eerste Anopheles stephensi in Madagascar te identificeren. De foto uit 2020 werd via de GLOBE Observer-app ingezonden; het team noemt apps en technische eisen belangrijk voor opschaling.