AI, macht en verantwoordelijkheidCEFR B2
21 apr 2026
Gebaseerd op Guest Contributor, Global Voices • CC BY 3.0
Foto door Marija Zaric, Unsplash
Dit stuk is gebaseerd op een bijdrage aan de serie "Vraag het niet aan AI, vraag een collega", een samenwerking tussen Global Voices, de Association for Progressive Communication en GenderIT, en maakt deel uit van Global Voices’ Spotlight-reeks van april 2026, "Menselijke perspectieven op AI". De auteur, Hija Kamran (she/her), is hoofdredacteur van GenderIT.org en advocacy-strateeg binnen APC’s Women’s Rights Programme.
Kamran stelt dat technologiebedrijven vaak hun keuzes laten sturen door bedrijfsmodellen, winst en groeidoelstellingen, niet door zorg voor mensen. Zij verwijst naar een bekende opmerking die aan Mark Zuckerberg wordt toegeschreven en naar een vertegenwoordiger van een techbedrijf die haar vertelde: "Ik moedig mensen aan onze gebruiksvoorwaarden te lezen." Zulke antwoorden illustreren volgens haar een gebrek aan echte transparantie en verantwoording.
Het artikel benadrukt dat systemen niet neutraal zijn. Trainingsdata uit internet en openbare bronnen weerspiegelt geschiedenissen van uitsluiting, racisme, seksisme en economische ongelijkheid. AI kan die patronen coderen en versterken, terwijl de uitkomsten als neutraal worden gepresenteerd. Kamran gebruikt de term "collaterale schade" voor mensen die mogelijk ernstig nadeel ondervinden in de race om AI te ontwikkelen.
Ze waarschuwt voor dehumanisering in gemilitariseerde contexten en wijst erop dat AI alleen uitkomsten op basis van waarschijnlijkheden genereert; het voelt geen zorg en onderhoudt geen relaties. Haar pleidooi is duidelijk: een mensenrechtenbenadering die verantwoordelijkheid verschuift naar degenen met macht, en kritische vragen vroeg in ontwikkeling en commercialisering over wie bouwt, hoe het werkt en wie profiteert.
Moeilijke woorden
- bedrijfsmodel — manier waarop een bedrijf geld verdient en werktbedrijfsmodellen
- verantwoording — uitleg geven en verantwoordelijk gehouden worden
- trainingsdata — gegevens waarmee een AI-model wordt geleerd
- uitsluiting — situatie waarin bepaalde groepen worden buitengesloten
- collaterale schade — onbedoelde nadelen voor mensen door acties
- dehumanisering — behandelen alsof iemand geen mens is
- mensenrechtenbenadering — aanpak die fundamentele persoonlijke rechten centraal stelt
- commercialisering — proces waarbij iets op de markt wordt gebracht
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Hoe zou een mensenrechtenbenadering veranderen welke bedrijven AI ontwikkelen en commercieel maken? Geef voorbeelden en redenen.
- Welke gevolgen kan het hebben als AI-uitkomsten worden gepresenteerd als neutraal, terwijl trainingsdata bestaande ongelijkheden bevat? Noem twee voorbeelden.
- Bedrijven zeiden volgens het artikel soms dat mensen de gebruiksvoorwaarden moeten lezen. Vind je dat dit voldoende verantwoording is? Waarom wel of niet?
Gerelateerde artikelen
Batterij uit de bodem voedt landbouwsensoren
Een spin-off van de University of Bath ontwikkelde Bactery, een batterij die energie oogst uit bodembacteriën om sensoren en IoT-apparaten op landbouwgrond van stroom te voorzien. Het apparaat is getest in Brazilië en de makers willen opschalen.
Kindhuwelijken blijven veel voorkomen in Zuid-Punjab ondanks nieuwe wet
In Zuid-Punjab blijven kindhuwelijken plaatsvinden, ondanks dat Pakistan in mei 2025 de wettelijke huwleeftijd op 18 stelde. Voorbeelden, studies en lokale tegenreacties tonen waarom praktijk en wet uiteenlopen.
Karnataka: nieuw wetsvoorstel voor Devadasi van verbod naar rechten
Het Karnataka-wetsvoorstel van 2025 verschuift de aanpak van straf naar een op rechten gebaseerd model. Het bill richt zich op bewustwording, juridische identiteit, economische steun en rehabilitatie na raadpleging van meer dan 15.000 betrokkenen.
AI helpt boeren met moessonvoorspellingen in India
Kunstmatige intelligentie gaf deze zomer 38 miljoen Indiase boeren een moessonvoorspelling met het model NeuralGCM. Het project groeit en onderzoekers willen dit werk uitbreiden naar tientallen andere landen en meteorologen trainen.