AI en niet‑consensuele seksuele beelden in BraziliëCEFR B1
28 apr 2026
Gebaseerd op Fernanda Canofre, Global Voices • CC BY 3.0
Foto door KOBU Agency, Unsplash
Recente gevallen in Brazilië laten zien dat kunstmatige intelligentie (AI) wordt gebruikt om seksuele beelden van mensen te maken en online te verspreiden zonder hun toestemming. Voorbeelden uit november 2023 en september 2024 betroffen tieners die AI‑beelden van klasgenoten maakten, en in Mato Grosso werden leerlingen gestraft nadat zij zulke beelden deelden in pornografische onlinegemeenschappen.
Het onafhankelijke onderzoekscentrum Internetlab publiceerde in april 2026 een technische nota over online geweld tegen vrouwen en meisjes. Internetlab waarschuwt dat bevooroordeelde databases en trainingssets kunnen zorgen dat AI gendergeweld reproduceert en versterkt.
Internetlab verwijst ook naar een studie van Security Hero die aangeeft dat seksueel expliciete deepfakes het merendeel van de online deepfakes vormen en dat vrijwel alle doelwitten vrouwen zijn. De nota beveelt regels voor veiligheid vanaf het ontwerp, een verbod op niet‑consensuele seksuele deepfakes en beter onderwijs in digitale geletterdheid aan.
Moeilijke woorden
- kunstmatige intelligentie — computersystemen die taken zonder menselijke hulp uitvoeren
- deepfake — nepbeeld of video gemaakt met AIdeepfakes
- bevooroordeeld — oneerlijk of partijdig door verkeerde gegevensbevooroordeelde
- trainingsset — verzameling voorbeelden om AI te trainentrainingssets
- gendergeweld — geweld of misbruik gericht tegen vrouwen en meisjes
- onlinegemeenschap — groep mensen die samen op internet actief zijnonlinegemeenschappen
- digitale geletterdheid — vaardigheden om veilig en slim online te werken
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Wat vind je van het voorstel om niet-consensuele seksuele deepfakes te verbieden? Leg kort uit.
- Welke maatregelen kunnen scholen nemen om digitale geletterdheid te verbeteren?
- Waarom is het belangrijk dat datasets niet bevooroordeeld zijn, volgens de tekst?
Gerelateerde artikelen
DopFone: app om thuis de foetale hartslag te volgen
Een nieuwe app, DopFone, laat zwangere mensen thuis de hartslag van de foetus meten met de luidspreker van een telefoon. Onderzoekers van Georgia Tech en University of Washington testen de app en waarschuwen dat het geen vervanging is voor medische zorg.
UNESCO-rapport: tekort aan gegevens en risico's voor meisjes
Een UNESCO-rapport (gepubliceerd op 27 april) toont grote gaten in onderwijsgegevens uit armere landen en waarschuwt dat meisjes in sommige regio's nog steeds weinig toegang tot onderwijs hebben. Het pleit voor betere monitoring en meer rolmodellen.