AI en de risico's voor LGBTQ+ gemeenschappenCEFR B2
18 nov 2025
Gebaseerd op Aaron Spitler, Global Voices • CC BY 3.0
Foto door Igor Omilaev, Unsplash
Kunstmatige intelligentie wordt vaker ingezet en veel bedrijven promoten haar efficiëntie. Ipsos vond dat 55 procent van de respondenten AI meer voordelen dan nadelen toekent, en privé-investeringen zijn sterk gestegen in het afgelopen decennium. Toch blijven zorgen bestaan over vooringenomenheid en toezicht.
Die zorgen zijn uitgesproken binnen LGBTQ+ gemeenschappen. Wired meldde dat beeldgeneratie-tools zoals Midjourney reducerende en schadelijke beelden produceerden wanneer ze werd gevraagd om LGBTQ+ mensen af te beelden. Internetgegevens bevatten vaak stereotypen en getrainde modellen neigen deze stereotypen te reproduceren; verbeterde data-labeling kan helpen, maar zal niet alle beledigende inhoud verwijderen die online bestaat.
UNESCO onderzocht de aannames achter grote taalmodellen en concludeerde dat tools zoals Meta's Llama 2 en OpenAI's GPT-2 door heteronormatieve houdingen werden gevormd en in simulaties meer dan de helft van de tijd negatieve inhoud over homoseksuele mensen creëerden. De risico's gaan verder dan digitale output: Forbidden Colours legde uit dat systemen voor automatische geslachtsherkenning audiovisueel materiaal analyseren en gelaatstrekken of vocale patronen gebruiken, maar niet kunnen bepalen hoe iemand zijn of haar gender ervaart; zij noemen die systemen misleidend en potentieel gevaarlijk.
Politico Europe meldde dat Viktor OrbE1n AI-ondersteunde biometrische monitoring op lokale Pride-evenementen goedkeurde en zei dat het kinderen zou beschermen tegen de "LGBTQ+ agenda." In de praktijk maakt deze maatregel het mogelijk voor overheid en politie om artiesten, activisten en burgers te bespioneren, en Europese instellingen bekijken het beleid. Voorstanders roepen op tot samenwerking tussen ontwikkelaars en LGBTQ+ belanghebbenden, sterkere waarborgen tegen misbruik van toezicht en een verbod op systemen die gender detecteren of classificeren. Inbreng van LGBTQ+ mensen moet in alle fasen van toolontwikkeling gevraagd worden om schade te verminderen en AI eerlijker te maken.
Moeilijke woorden
- vooringenomenheid — bevooroordeelde mening of negatieve houding
- beeldgeneratie-tools — software die automatisch afbeeldingen of beelden maakt
- stereotype — vast vereenvoudigd beeld van een groep mensenstereotypen
- data-labeling — het toevoegen van labels aan gegevens voor training
- heteronormatief — uitgaan van heteroseksualiteit als normheteronormatieve
- geslachtsherkenning — automatisch bepalen of iemand mannelijk of vrouwelijk lijkt
- biometrische monitoring — controle met lichamelijke of biologische kenmerken
- waarborg — maatregel om iets veilig of beschermd te houdenwaarborgen
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Op welke manieren kunnen ontwikkelaars en LGBTQ+ belanghebbenden samenwerken om schade van AI te verminderen? Geef voorbeelden en redenen.
- Welke risico's en gevolgen kunnen optreden als overheden biometrische monitoring inzetten op openbare evenementen zoals Pride?
- Denk je dat een verbod op systemen die gender detecteren wenselijk en haalbaar is? Leg uit met argumenten uit de tekst en eigen ideeën.
Gerelateerde artikelen
Antibioticagebruik op boerderijen vergroot gezondheidsrisico's
Op boerderijen in Oost-Afrika gebruiken veel pluimveehouders vaak antibiotica zonder dierenarts. Dit draagt bij aan antimicrobiële resistentie die dieren en mensen ziek maakt. Experts willen betere controles, toezicht en voorlichting.
Nieuw lichtactief materiaal reinigt water
Onderzoekers ontwikkelden een materiaal dat met licht veel verontreinigingen in water afbreekt, waaronder moeilijk te verwijderen stoffen. Het combineert twee dunne materialen en werkt zonder metalen; tests in stromend water waren veelbelovend.