AI en de risico's voor LGBTQ+ gemeenschappenCEFR B2
18 nov 2025
Gebaseerd op Aaron Spitler, Global Voices • CC BY 3.0
Foto door Igor Omilaev, Unsplash
Kunstmatige intelligentie wordt vaker ingezet en veel bedrijven promoten haar efficiëntie. Ipsos vond dat 55 procent van de respondenten AI meer voordelen dan nadelen toekent, en privé-investeringen zijn sterk gestegen in het afgelopen decennium. Toch blijven zorgen bestaan over vooringenomenheid en toezicht.
Die zorgen zijn uitgesproken binnen LGBTQ+ gemeenschappen. Wired meldde dat beeldgeneratie-tools zoals Midjourney reducerende en schadelijke beelden produceerden wanneer ze werd gevraagd om LGBTQ+ mensen af te beelden. Internetgegevens bevatten vaak stereotypen en getrainde modellen neigen deze stereotypen te reproduceren; verbeterde data-labeling kan helpen, maar zal niet alle beledigende inhoud verwijderen die online bestaat.
UNESCO onderzocht de aannames achter grote taalmodellen en concludeerde dat tools zoals Meta's Llama 2 en OpenAI's GPT-2 door heteronormatieve houdingen werden gevormd en in simulaties meer dan de helft van de tijd negatieve inhoud over homoseksuele mensen creëerden. De risico's gaan verder dan digitale output: Forbidden Colours legde uit dat systemen voor automatische geslachtsherkenning audiovisueel materiaal analyseren en gelaatstrekken of vocale patronen gebruiken, maar niet kunnen bepalen hoe iemand zijn of haar gender ervaart; zij noemen die systemen misleidend en potentieel gevaarlijk.
Politico Europe meldde dat Viktor OrbE1n AI-ondersteunde biometrische monitoring op lokale Pride-evenementen goedkeurde en zei dat het kinderen zou beschermen tegen de "LGBTQ+ agenda." In de praktijk maakt deze maatregel het mogelijk voor overheid en politie om artiesten, activisten en burgers te bespioneren, en Europese instellingen bekijken het beleid. Voorstanders roepen op tot samenwerking tussen ontwikkelaars en LGBTQ+ belanghebbenden, sterkere waarborgen tegen misbruik van toezicht en een verbod op systemen die gender detecteren of classificeren. Inbreng van LGBTQ+ mensen moet in alle fasen van toolontwikkeling gevraagd worden om schade te verminderen en AI eerlijker te maken.
Moeilijke woorden
- vooringenomenheid — bevooroordeelde mening of negatieve houding
- beeldgeneratie-tools — software die automatisch afbeeldingen of beelden maakt
- stereotype — vast vereenvoudigd beeld van een groep mensenstereotypen
- data-labeling — het toevoegen van labels aan gegevens voor training
- heteronormatief — uitgaan van heteroseksualiteit als normheteronormatieve
- geslachtsherkenning — automatisch bepalen of iemand mannelijk of vrouwelijk lijkt
- biometrische monitoring — controle met lichamelijke of biologische kenmerken
- waarborg — maatregel om iets veilig of beschermd te houdenwaarborgen
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Op welke manieren kunnen ontwikkelaars en LGBTQ+ belanghebbenden samenwerken om schade van AI te verminderen? Geef voorbeelden en redenen.
- Welke risico's en gevolgen kunnen optreden als overheden biometrische monitoring inzetten op openbare evenementen zoals Pride?
- Denk je dat een verbod op systemen die gender detecteren wenselijk en haalbaar is? Leg uit met argumenten uit de tekst en eigen ideeën.
Gerelateerde artikelen
Onderzoekers vinden zwakke plekken in wachtwoordmanagers
Onderzoekers van ETH Zurich onderzochten drie cloudgebaseerde wachtwoordmanagers en ontdekten meerdere aanvallen die vaak wachtwoorden konden lezen of wijzigen. Ze gaven aanbieders 90 dagen om de problemen te verhelpen en deden aanbevelingen voor betere beveiliging.
Milieuschade en wederopbouw in Gaza na bombardementen
Na bijna twee jaar bombardementen en blokkade is er een staakt-het-vuren. Experts spreken van ernstige milieuschade: verwoeste landbouw, vervuild water, kapotte zonnepanelen en grote CO₂-uitstoot; wederopbouw vereist ook ontgifting.
Online lessen verbeterden wiskundeprestaties tijdens lockdown
Onderzoek naar de plotselinge overstap naar online onderwijs tijdens de lockdown van 2020 in China vond dat studenten beter presteerden in kwantitatieve vakken zoals wiskunde, maar minder in discussiegerichte vakken. Effecten verschilden per vak en per lockdownmaatregel.