Aktivistinnen, Forschende und NGOs in Lateinamerika entwickeln eigene KI‑Systeme, um geschlechtsspezifische Ungleichheiten und Gewalt besser zu verstehen und zu verringern. Sie argumentieren, dass viele Algorithmen großer Technologieunternehmen Vorurteile enthalten, die nicht zur lokalen Realität passen, und setzen daher auf offene, lokal installierte Lösungen, die sensible Daten schützen und belastbare Belege für Zivilgesellschaft und Behörden liefern.
Ein zentrales Beispiel ist DataGénero in Argentinien, gegründet von Ivana Feldfeber. Das Team entwickelte AymurAI, ein Open‑Source‑Programm, das Gerichtsakten nach Hinweisen auf geschlechtsbezogene Gewalt durchsucht. AymurAI wurde vor dem Aufkommen von Chat GPT entwickelt, läuft auf lokalen Servern, sammelt Material, ohne es zu interpretieren, und übermittelt genau die gefundenen Informationen an eine Datenbank. Seit 2021 wird das Werkzeug in Gerichten in Argentinien, Chile und Costa Rica eingesetzt und enthält Daten aus mehr als 10.000 Gerichtsurteilen. AymurAI erhielt Fördermittel vom kanadischen IDRC und von der Patrick McGovern Foundation. Geplant ist eine Audio‑zu‑Text‑Funktion, die nach Validierung Aussagen speichern kann, damit Betroffene traumatische Erlebnisse nicht wiederholt schildern müssen, und sensible Details wie Adressen sollen anonymisiert werden.
Weitere Initiativen zeigen unterschiedliche Ansätze: Derechos Digitales, unter Jamila Venturini, fördert feministische Perspektiven auf digitale Rechte und mahnt, dass Datenschutz, Gerechtigkeit und Gleichheit von Anfang an in KI eingebaut werden müssen. Das PIT Policy Lab in Mexiko arbeitete mit dem Staat Guanajuato an der Vorhersage von Schulabbrechern und stellte fest, dass 4.000 junge Menschen fälschlich als nicht gefährdet eingestuft worden waren. Das Projekt reagierte mit Open‑Source‑Werkzeugen zur Entdeckung von Verzerrungen und mit Schulungen für Behörden zu Menschenrechten und Geschlecht in der KI. Der Informatiker Daniel Yankelevich von Fundar betont, dass Verhalten kulturell unterschiedlich ist und prädiktive Systeme mit lokalen Informationen trainiert werden müssen, um exportierte Verzerrungen zu vermeiden.
Als nächste gemeinsame Schritte nennen die Projekte die Verbesserung der Trainingsdaten, das Hinzufügen technischer Funktionen wie Audio‑Transkription, die Stärkung von Schutzrahmen und die Förderung öffentlicher Politiken, um Schäden durch voreingenommene oder undurchsichtige Algorithmen zu verringern.
Schwierige Wörter
- geschlechtsspezifisch — auf Unterschiede zwischen Geschlechtern bezogengeschlechtsspezifische
- Vorurteil — negative oder ungerechte Meinung über GruppenVorurteile
- anonymisieren — persönliche Daten so verändern, dass Personen nicht erkennbar sindanonymisiert
- Beleg — Dokument oder Nachweis, der etwas bestätigtBelege
- voreingenommen — mit unfairen, nicht objektiven Annahmenvoreingenommene
- Transkription — Umwandlung gesprochener Sprache in geschriebenen Text
- Verzerrung — systematischer Fehler in Daten oder ErgebnissenVerzerrungen
- Fördermittel — Geld, das Projekte finanziell unterstützt
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Welche Vor- und Nachteile sehen Sie bei lokal installierten, offenen KI‑Systemen für den Schutz sensibler Daten?
- Wie könnten Audio‑zu‑Text‑Funktionen Betroffene entlasten, und welche Datenschutzrisiken müssen dabei beachtet werden?
- Warum ist es wichtig, dass prädiktive Systeme mit lokalen Informationen trainiert werden, wie im Text beschrieben?
Verwandte Artikel
Digitale Angriffe gegen Frauen in Ugandas Politik
Bei den Wahlen im Januar 2026 traten viele Frauen in Uganda an. Während des Wahlkampfs wurden Kandidatinnen online mit gefälschten Bildern, Deepfakes und sexualisierten Beleidigungen angegriffen. Technologie verstärkte bestehende Gewalt und erschwert politische Teilnahme.
KI benachteiligt Nicht‑Englischsprachige
Eine 2025 veröffentlichte Studie zeigt: Viele große Sprachmodelle liefern in anderen Sprachen schlechte Ergebnisse. Das benachteiligt Menschen ohne Englisch und hat technische sowie kulturelle Folgen, etwa fehlerhafte Ausgaben und unsichtbare Perspektiven.
Wie der Lockdown 2020 das Lernen an Hochschulen veränderte
Forschung untersucht den schnellen Wechsel von Präsenz- zu Online-Lehre während des COVID-19-Lockdowns 2020 in China. Die Effekte hingen vom Fach und von lokalen Lockdown-Regeln ab; Mathematik verbesserte sich, Diskussionskurse weniger.
Neue Plattform überwacht Dengue in 88 Ländern
Die Plattform Global Dengue Observatory verfolgt monatlich Dengue-Trends in 88 Ländern. Sie nutzt Daten von WHO und OpenDengue, korrigiert Meldeverzögerungen und gibt Forschern, Politikern und der Öffentlichkeit einen globalen Überblick.