LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
AI, macht en verantwoordelijkheid — Niveau B2 — a sticker on the side of a wall

AI, macht en verantwoordelijkheidCEFR B2

21 apr 2026

Gebaseerd op Guest Contributor, Global Voices CC BY 3.0

Foto door Marija Zaric, Unsplash

Niveau B2 – Hoger-midden
4 min
239 woorden

Dit stuk is gebaseerd op een bijdrage aan de serie "Vraag het niet aan AI, vraag een collega", een samenwerking tussen Global Voices, de Association for Progressive Communication en GenderIT, en maakt deel uit van Global Voices’ Spotlight-reeks van april 2026, "Menselijke perspectieven op AI". De auteur, Hija Kamran (she/her), is hoofdredacteur van GenderIT.org en advocacy-strateeg binnen APC’s Women’s Rights Programme.

Kamran stelt dat technologiebedrijven vaak hun keuzes laten sturen door bedrijfsmodellen, winst en groeidoelstellingen, niet door zorg voor mensen. Zij verwijst naar een bekende opmerking die aan Mark Zuckerberg wordt toegeschreven en naar een vertegenwoordiger van een techbedrijf die haar vertelde: "Ik moedig mensen aan onze gebruiksvoorwaarden te lezen." Zulke antwoorden illustreren volgens haar een gebrek aan echte transparantie en verantwoording.

Het artikel benadrukt dat systemen niet neutraal zijn. Trainingsdata uit internet en openbare bronnen weerspiegelt geschiedenissen van uitsluiting, racisme, seksisme en economische ongelijkheid. AI kan die patronen coderen en versterken, terwijl de uitkomsten als neutraal worden gepresenteerd. Kamran gebruikt de term "collaterale schade" voor mensen die mogelijk ernstig nadeel ondervinden in de race om AI te ontwikkelen.

Ze waarschuwt voor dehumanisering in gemilitariseerde contexten en wijst erop dat AI alleen uitkomsten op basis van waarschijnlijkheden genereert; het voelt geen zorg en onderhoudt geen relaties. Haar pleidooi is duidelijk: een mensenrechtenbenadering die verantwoordelijkheid verschuift naar degenen met macht, en kritische vragen vroeg in ontwikkeling en commercialisering over wie bouwt, hoe het werkt en wie profiteert.

Moeilijke woorden

  • bedrijfsmodelmanier waarop een bedrijf geld verdient en werkt
    bedrijfsmodellen
  • verantwoordinguitleg geven en verantwoordelijk gehouden worden
  • trainingsdatagegevens waarmee een AI-model wordt geleerd
  • uitsluitingsituatie waarin bepaalde groepen worden buitengesloten
  • collaterale schadeonbedoelde nadelen voor mensen door acties
  • dehumaniseringbehandelen alsof iemand geen mens is
  • mensenrechtenbenaderingaanpak die fundamentele persoonlijke rechten centraal stelt
  • commercialiseringproces waarbij iets op de markt wordt gebracht

Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.

Discussievragen

  • Hoe zou een mensenrechtenbenadering veranderen welke bedrijven AI ontwikkelen en commercieel maken? Geef voorbeelden en redenen.
  • Welke gevolgen kan het hebben als AI-uitkomsten worden gepresenteerd als neutraal, terwijl trainingsdata bestaande ongelijkheden bevat? Noem twee voorbeelden.
  • Bedrijven zeiden volgens het artikel soms dat mensen de gebruiksvoorwaarden moeten lezen. Vind je dat dit voldoende verantwoording is? Waarom wel of niet?

Gerelateerde artikelen