Frag eine Person, nicht die KICEFR B1
15. Apr. 2026
Adaptiert nach Ameya Nagarajan, Global Voices • CC BY 3.0
Foto von Marvin Meyer, Unsplash
Redakteurinnen und Redakteure von drei Organisationen, die sich auf Menschenrechte und marginalisierte Stimmen konzentrieren, stehen vor demselben Dilemma: Wie reagiert man auf die zunehmende Nutzung großer Lernmodelle (KI)? Ein gemeinsames Editorial wurde von Ameya Nagarajan, Débora Prado und Hija Kamran verfasst und nur in Zeichensetzung und Rechtschreibung redigiert, um unterschiedliche Stimmen zu erhalten.
Letztes Jahr erarbeitete APC zusammen mit GenderIT.org eine KI-Politik, die von Global Voices inspiriert und mit dieser entwickelt wurde. Beide Organisationen untersuchten Fragen zu menschlicher Stimme, Handlungsfähigkeit, Kreativität und Arbeit. Ziel ist, Kreativität zu wertschätzen und Vertrauen sowie Transparenz zu fördern, statt einfache Verbote zu fordern.
Aus den Diskussionen entstand die Serie "Don't ask AI, ask a peer". Sie betont direkten Austausch von Mensch zu Mensch und fragt, wie ein menschenrechtsorientierter Ansatz für KI aussehen kann. Beiträge werden von Menschen redigiert, übersetzt, vergütet und mit Danksagungen versehen. Die Serie startet heute und erscheint im April auf APC.org, GenderIT.org und globalvoices.org.
Schwierige Wörter
- marginalisiert — am Rand der Gesellschaft stehend, wenig beachtetmarginalisierte
- dilemma — schwierige Entscheidung zwischen zwei Möglichkeiten
- lernmodell — Computerprogramm, das aus Daten lerntLernmodelle
- redigieren — Text prüfen und sprachlich verbessernredigiert
- handlungsfähigkeit — Fähigkeit, selbst Entscheidungen zu treffen
- transparenz — Offenheit, wie etwas gemacht oder entschieden wird
- vergüten — jemandem Geld für Arbeit zahlenvergütet
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Findest du es wichtig, bei Themen mit KI Menschen direkt zu fragen statt die KI? Warum oder warum nicht?
- Welche Vorteile hat es, wenn Beiträge von Menschen redigiert und vergütet werden?
- Wie könnte mehr Transparenz bei KI-Anwendungen in deiner Arbeit oder Schule aussehen?
Verwandte Artikel
Mit zwölf nach Kolumbien: Sofa9a erzählt
Sofa9a beschreibt die Flucht ihrer Familie von Venezuela nach Kolumbien, die Grenzeüberquerung am 13. Januar 2021, die Krankheiten und die Arbeit der Mutter sowie die Hilfe und Diskriminierung, die sie erlebten. 2022 bekamen sie eine Temporary Protection Permit, Anfang 2023 kehrten sie zurück.
Wahl in Bangladesch: Künstliche Intelligenz und Desinformation
Bei der Nationalwahl in Bangladesch spielte künstliche Intelligenz eine zentrale Rolle. Studien und Faktenprüfer fanden viele gefälschte Bilder, Videos und manipulierte Zitate, die den Wahlkampf und die öffentliche Wahrnehmung beeinflussten.
KI-Gerät unterstützt Autismus-Diagnosen in Missouri
Forscherinnen der University of Missouri testeten das FDA-zugelassene Gerät CanvasDx, das mit KI und Patientendaten Autismus vorhersagen kann. In einer Studie mit 80 Kindern gab es für 52 % klare Ergebnisse und frühere Diagnosen vor Ort.