LingVo.club
Niveau
AI en de risico's voor LGBTQ+ gemeenschappen — Niveau B2 — a computer chip with the letter a on top of it

AI en de risico's voor LGBTQ+ gemeenschappenCEFR B2

18 nov 2025

Niveau B2 – Hoger-midden
5 min
281 woorden

Kunstmatige intelligentie wordt vaker ingezet en veel bedrijven promoten haar efficiëntie. Ipsos vond dat 55 procent van de respondenten AI meer voordelen dan nadelen toekent, en privé-investeringen zijn sterk gestegen in het afgelopen decennium. Toch blijven zorgen bestaan over vooringenomenheid en toezicht.

Die zorgen zijn uitgesproken binnen LGBTQ+ gemeenschappen. Wired meldde dat beeldgeneratie-tools zoals Midjourney reducerende en schadelijke beelden produceerden wanneer ze werd gevraagd om LGBTQ+ mensen af te beelden. Internetgegevens bevatten vaak stereotypen en getrainde modellen neigen deze stereotypen te reproduceren; verbeterde data-labeling kan helpen, maar zal niet alle beledigende inhoud verwijderen die online bestaat.

UNESCO onderzocht de aannames achter grote taalmodellen en concludeerde dat tools zoals Meta's Llama 2 en OpenAI's GPT-2 door heteronormatieve houdingen werden gevormd en in simulaties meer dan de helft van de tijd negatieve inhoud over homoseksuele mensen creëerden. De risico's gaan verder dan digitale output: Forbidden Colours legde uit dat systemen voor automatische geslachtsherkenning audiovisueel materiaal analyseren en gelaatstrekken of vocale patronen gebruiken, maar niet kunnen bepalen hoe iemand zijn of haar gender ervaart; zij noemen die systemen misleidend en potentieel gevaarlijk.

Politico Europe meldde dat Viktor OrbE1n AI-ondersteunde biometrische monitoring op lokale Pride-evenementen goedkeurde en zei dat het kinderen zou beschermen tegen de "LGBTQ+ agenda." In de praktijk maakt deze maatregel het mogelijk voor overheid en politie om artiesten, activisten en burgers te bespioneren, en Europese instellingen bekijken het beleid. Voorstanders roepen op tot samenwerking tussen ontwikkelaars en LGBTQ+ belanghebbenden, sterkere waarborgen tegen misbruik van toezicht en een verbod op systemen die gender detecteren of classificeren. Inbreng van LGBTQ+ mensen moet in alle fasen van toolontwikkeling gevraagd worden om schade te verminderen en AI eerlijker te maken.

Moeilijke woorden

  • vooringenomenheidbevooroordeelde mening of negatieve houding
  • beeldgeneratie-toolssoftware die automatisch afbeeldingen of beelden maakt
  • stereotypevast vereenvoudigd beeld van een groep mensen
    stereotypen
  • data-labelinghet toevoegen van labels aan gegevens voor training
  • heteronormatiefuitgaan van heteroseksualiteit als norm
    heteronormatieve
  • geslachtsherkenningautomatisch bepalen of iemand mannelijk of vrouwelijk lijkt
  • biometrische monitoringcontrole met lichamelijke of biologische kenmerken
  • waarborgmaatregel om iets veilig of beschermd te houden
    waarborgen

Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.

Discussievragen

  • Op welke manieren kunnen ontwikkelaars en LGBTQ+ belanghebbenden samenwerken om schade van AI te verminderen? Geef voorbeelden en redenen.
  • Welke risico's en gevolgen kunnen optreden als overheden biometrische monitoring inzetten op openbare evenementen zoals Pride?
  • Denk je dat een verbod op systemen die gender detecteren wenselijk en haalbaar is? Leg uit met argumenten uit de tekst en eigen ideeën.

Gerelateerde artikelen