KI und Risiken für LGBTQ+-MenschenCEFR B2
18. Nov. 2025
Adaptiert nach Aaron Spitler, Global Voices • CC BY 3.0
Foto von Igor Omilaev, Unsplash
Künstliche Intelligenz wird zunehmend eingesetzt, und private Investitionen sind in den letzten zehn Jahren stark gestiegen. Firmen werben oft mit Effizienz und einfacher Bedienung, weshalb solche Werkzeuge weit verbreitet sind. Eine Ipsos-Umfrage zeigte jedoch, dass zwar 55 Prozent der Befragten Vorteile sehen, gleichzeitig aber viele Menschen besorgt bleiben.
Diese Sorgen sind besonders ausgeprägt in lesbischen, schwulen, bisexuellen, trans und queeren Gemeinschaften. Wired berichtete, dass Bildgenerierungswerkzeuge wie Midjourney bei Aufforderungen, LGBTQ+ Menschen darzustellen, vereinfachende und schädliche Bilder lieferten. Die UNESCO untersuchte verbreitete Annahmen in mehreren großen Sprachmodellen und stellte fest, dass Werkzeuge wie Llama 2 von Meta und GPT-2 von OpenAI heteronormative Einstellungen widerspiegelten; in Simulationen erzeugten sie mehr als die Hälfte der Zeit negative Inhalte über schwule Menschen. Solche Ergebnisse zeigen, dass Trainingsdaten und Designentscheidungen wiederholt Schaden hervorrufen können. Maßnahmen wie bessere Datenkennzeichnung könnten helfen, sie werden aber möglicherweise nicht alle abwertenden Inhalte im Netz verhindern.
Die Risiken betreffen nicht nur digitale Fehler: Forbidden Colours, eine belgische NGO, beschrieb Systeme zur „automatischen Geschlechtserkennung“ (AGR). Diese Werkzeuge analysieren audiovisuelles Material, zum Beispiel Aufnahmen von Überwachungskameras, und nutzen Gesichtsmerkmale oder Stimmprofile, um ein Geschlecht abzuleiten. Forbidden Colours argumentiert, dass daraus nicht ersichtlich ist, wie eine Person ihr eigenes Geschlecht versteht, und dass solche Systeme irreführend und potenziell gefährlich sind.
Politico Europe berichtete, dass der ungarische Ministerpräsident Viktor Orbán KI-gestützte biometrische Überwachung bei lokalen Pride-Veranstaltungen genehmigte; er erklärte, dies solle Kinder vor der „LGBTQ+-Agenda“ schützen. In der Praxis ermöglicht die Maßnahme Regierung und Strafverfolgung, Künstler, Aktivisten und normale Bürger zu überwachen, und Institutionen der Europäischen Union prüfen die Politik.
- Vertreterinnen und Vertreter der LGBTQ+-Gemeinschaft fordern Partnerschaften mit Entwicklern.
- Sie verlangen stärkere Schutzmaßnahmen gegen missbräuchliche Überwachung.
- Sie fordern ein Verbot von Systemen, die Geschlecht erkennen oder klassifizieren.
- Die Einbeziehung von LGBTQ+ Menschen soll in allen Entwicklungsphasen erfolgen.
Diese Schritte zielen darauf ab, Schäden zu verringern und die Chance zu erhöhen, dass KI für mehr Menschen nützlich und gerecht wird.
Schwierige Wörter
- heteronormativ — Annahme, dass Heterosexualität normal istheteronormative
- bildgenerierungswerkzeug — Software, die aus Text Bilder erzeugtBildgenerierungswerkzeuge
- designentscheidung — bewusste Wahl beim Aufbau oder Aussehen eines ProduktsDesignentscheidungen
- datenkennzeichnung — Angabe über Herkunft und Qualität von Daten
- geschlechtserkennung — Versuch, das Geschlecht einer Person zu bestimmen
- irreführend — etwas, das falsche Eindrücke geben kann
- missbräuchlich — auf schädliche oder unrechtmäßige Weise benutztmissbräuchliche
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Glauben Sie, dass Partnerschaften zwischen Entwicklern und LGBTQ+-Vertreterinnen und -Vertretern KI-Schäden verringern können? Begründen Sie Ihre Meinung mit Beispielen aus dem Text oder dem Alltag.
- Welche Risiken hat biometrische Überwachung bei Veranstaltungen wie Pride laut dem Artikel? Nennen Sie mindestens zwei mögliche Folgen.
- Datenkennzeichnung wird als Maßnahme genannt, aber nicht als vollständige Lösung. Diskutieren Sie, wie Datenkennzeichnung helfen kann und welche Grenzen sie haben könnte, laut dem Text.
Verwandte Artikel
Staus und Verkehrslösungen in Asiens Städten
Staus in vielen asiatischen Städten erhöhen Luftverschmutzung und Kosten. Städte wie Delhi, Bangkok, Metro Manila und Jakarta ergreifen Maßnahmen: alte Autos entfernen, Busse modernisieren, Metro ausbauen und Technologien für bessere Mobilität nutzen.
TikTok und Clanpolitik in Somalia
Forschung zeigt: TikTok stärkt Clanbindung und verschärft Polarisierung in somalischen Gemeinschaften. Digitale Münzen und TikTok‑Battles halfen, Konflikte zu finanzieren; Plattformfunktionen und Algorithmus begünstigen emotionale Inhalte. Experten empfehlen Moderation und digitale Bildung.
Tragbare Antikörper‑Sensoren messen in 10 Minuten
Forscher der University of Pittsburgh entwickelten tragbare Biosensoren, die in 10 Minuten Antikörper ohne Blutentnahme erkennen. Die Sensoren messen Antikörper in der Interstitialflüssigkeit und sind in Analytical Chemistry beschrieben.