AI en de risico's voor LGBTQ+ gemeenschappenCEFR B2
18 nov 2025
Gebaseerd op Aaron Spitler, Global Voices • CC BY 3.0
Foto door Igor Omilaev, Unsplash
Kunstmatige intelligentie wordt vaker ingezet en veel bedrijven promoten haar efficiëntie. Ipsos vond dat 55 procent van de respondenten AI meer voordelen dan nadelen toekent, en privé-investeringen zijn sterk gestegen in het afgelopen decennium. Toch blijven zorgen bestaan over vooringenomenheid en toezicht.
Die zorgen zijn uitgesproken binnen LGBTQ+ gemeenschappen. Wired meldde dat beeldgeneratie-tools zoals Midjourney reducerende en schadelijke beelden produceerden wanneer ze werd gevraagd om LGBTQ+ mensen af te beelden. Internetgegevens bevatten vaak stereotypen en getrainde modellen neigen deze stereotypen te reproduceren; verbeterde data-labeling kan helpen, maar zal niet alle beledigende inhoud verwijderen die online bestaat.
UNESCO onderzocht de aannames achter grote taalmodellen en concludeerde dat tools zoals Meta's Llama 2 en OpenAI's GPT-2 door heteronormatieve houdingen werden gevormd en in simulaties meer dan de helft van de tijd negatieve inhoud over homoseksuele mensen creëerden. De risico's gaan verder dan digitale output: Forbidden Colours legde uit dat systemen voor automatische geslachtsherkenning audiovisueel materiaal analyseren en gelaatstrekken of vocale patronen gebruiken, maar niet kunnen bepalen hoe iemand zijn of haar gender ervaart; zij noemen die systemen misleidend en potentieel gevaarlijk.
Politico Europe meldde dat Viktor OrbE1n AI-ondersteunde biometrische monitoring op lokale Pride-evenementen goedkeurde en zei dat het kinderen zou beschermen tegen de "LGBTQ+ agenda." In de praktijk maakt deze maatregel het mogelijk voor overheid en politie om artiesten, activisten en burgers te bespioneren, en Europese instellingen bekijken het beleid. Voorstanders roepen op tot samenwerking tussen ontwikkelaars en LGBTQ+ belanghebbenden, sterkere waarborgen tegen misbruik van toezicht en een verbod op systemen die gender detecteren of classificeren. Inbreng van LGBTQ+ mensen moet in alle fasen van toolontwikkeling gevraagd worden om schade te verminderen en AI eerlijker te maken.
Moeilijke woorden
- vooringenomenheid — bevooroordeelde mening of negatieve houding
- beeldgeneratie-tools — software die automatisch afbeeldingen of beelden maakt
- stereotype — vast vereenvoudigd beeld van een groep mensenstereotypen
- data-labeling — het toevoegen van labels aan gegevens voor training
- heteronormatief — uitgaan van heteroseksualiteit als normheteronormatieve
- geslachtsherkenning — automatisch bepalen of iemand mannelijk of vrouwelijk lijkt
- biometrische monitoring — controle met lichamelijke of biologische kenmerken
- waarborg — maatregel om iets veilig of beschermd te houdenwaarborgen
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Op welke manieren kunnen ontwikkelaars en LGBTQ+ belanghebbenden samenwerken om schade van AI te verminderen? Geef voorbeelden en redenen.
- Welke risico's en gevolgen kunnen optreden als overheden biometrische monitoring inzetten op openbare evenementen zoals Pride?
- Denk je dat een verbod op systemen die gender detecteren wenselijk en haalbaar is? Leg uit met argumenten uit de tekst en eigen ideeën.
Gerelateerde artikelen
Batterij uit de bodem voedt landbouwsensoren
Een spin-off van de University of Bath ontwikkelde Bactery, een batterij die energie oogst uit bodembacteriën om sensoren en IoT-apparaten op landbouwgrond van stroom te voorzien. Het apparaat is getest in Brazilië en de makers willen opschalen.
Aanraakschermen in de auto vergroten afleiding tijdens het rijden
Een simulatiestudie onderzocht hoe 12-inch aanraakschermen en een geheugentaak het rijden beïnvloeden. Multitasken verergerde stuurgedrag en verminderde precies gebruik van het scherm; vergroten van toetsen hielp niet.