LingVo.club
Level
KI in Lateinamerika gegen geschlechtsspezifische Gewalt — Level B2 — grayscale photography of women marching

KI in Lateinamerika gegen geschlechtsspezifische GewaltCEFR B2

18. Nov. 2025

Adaptiert nach Martín De Ambrosio, SciDev CC BY 2.0

Foto von L'Odyssée Belle, Unsplash

Niveau B2 – Obere Mittelstufe
6 Min
320 Wörter

Aktivistinnen, Forschende und NGOs in Lateinamerika entwickeln eigene KI‑Systeme, um geschlechtsspezifische Ungleichheiten und Gewalt besser zu verstehen und zu verringern. Sie argumentieren, dass viele Algorithmen großer Technologieunternehmen Vorurteile enthalten, die nicht zur lokalen Realität passen, und setzen daher auf offene, lokal installierte Lösungen, die sensible Daten schützen und belastbare Belege für Zivilgesellschaft und Behörden liefern.

Ein zentrales Beispiel ist DataGénero in Argentinien, gegründet von Ivana Feldfeber. Das Team entwickelte AymurAI, ein Open‑Source‑Programm, das Gerichtsakten nach Hinweisen auf geschlechtsbezogene Gewalt durchsucht. AymurAI wurde vor dem Aufkommen von Chat GPT entwickelt, läuft auf lokalen Servern, sammelt Material, ohne es zu interpretieren, und übermittelt genau die gefundenen Informationen an eine Datenbank. Seit 2021 wird das Werkzeug in Gerichten in Argentinien, Chile und Costa Rica eingesetzt und enthält Daten aus mehr als 10.000 Gerichtsurteilen. AymurAI erhielt Fördermittel vom kanadischen IDRC und von der Patrick McGovern Foundation. Geplant ist eine Audio‑zu‑Text‑Funktion, die nach Validierung Aussagen speichern kann, damit Betroffene traumatische Erlebnisse nicht wiederholt schildern müssen, und sensible Details wie Adressen sollen anonymisiert werden.

Weitere Initiativen zeigen unterschiedliche Ansätze: Derechos Digitales, unter Jamila Venturini, fördert feministische Perspektiven auf digitale Rechte und mahnt, dass Datenschutz, Gerechtigkeit und Gleichheit von Anfang an in KI eingebaut werden müssen. Das PIT Policy Lab in Mexiko arbeitete mit dem Staat Guanajuato an der Vorhersage von Schulabbrechern und stellte fest, dass 4.000 junge Menschen fälschlich als nicht gefährdet eingestuft worden waren. Das Projekt reagierte mit Open‑Source‑Werkzeugen zur Entdeckung von Verzerrungen und mit Schulungen für Behörden zu Menschenrechten und Geschlecht in der KI. Der Informatiker Daniel Yankelevich von Fundar betont, dass Verhalten kulturell unterschiedlich ist und prädiktive Systeme mit lokalen Informationen trainiert werden müssen, um exportierte Verzerrungen zu vermeiden.

Als nächste gemeinsame Schritte nennen die Projekte die Verbesserung der Trainingsdaten, das Hinzufügen technischer Funktionen wie Audio‑Transkription, die Stärkung von Schutzrahmen und die Förderung öffentlicher Politiken, um Schäden durch voreingenommene oder undurchsichtige Algorithmen zu verringern.

Schwierige Wörter

  • geschlechtsspezifischauf Unterschiede zwischen Geschlechtern bezogen
    geschlechtsspezifische
  • Vorurteilnegative oder ungerechte Meinung über Gruppen
    Vorurteile
  • anonymisierenpersönliche Daten so verändern, dass Personen nicht erkennbar sind
    anonymisiert
  • BelegDokument oder Nachweis, der etwas bestätigt
    Belege
  • voreingenommenmit unfairen, nicht objektiven Annahmen
    voreingenommene
  • TranskriptionUmwandlung gesprochener Sprache in geschriebenen Text
  • Verzerrungsystematischer Fehler in Daten oder Ergebnissen
    Verzerrungen
  • FördermittelGeld, das Projekte finanziell unterstützt

Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.

Diskussionsfragen

  • Welche Vor- und Nachteile sehen Sie bei lokal installierten, offenen KI‑Systemen für den Schutz sensibler Daten?
  • Wie könnten Audio‑zu‑Text‑Funktionen Betroffene entlasten, und welche Datenschutzrisiken müssen dabei beachtet werden?
  • Warum ist es wichtig, dass prädiktive Systeme mit lokalen Informationen trainiert werden, wie im Text beschrieben?

Verwandte Artikel