LingVo.club
Niveau
Onderzoekers: AI-bias komt door te simpele modellen — Niveau B2 — a group of people standing next to each other

Onderzoekers: AI-bias komt door te simpele modellenCEFR B2

6 dec 2025

Niveau B2 – Hoger-midden
5 min
277 woorden

Kunstmatige-intelligentietools groeien snel en bereiken een groot publiek. Tegelijkertijd documenteren onderzoekers en journalisten schade veroorzaakt door bevooroordeelde systemen, zoals verschillende medische behandelingen op basis van demografische kenmerken en wervingshulpmiddelen die discrimineren tegen vrouwen en zwarte kandidaten.

Onderzoekers van de University of Texas at Austin, onder wie Hüseyin Tanriverdi en PhD-kandidaat John-Patrick Akinyemi, bestudeerden een set van 363 algoritmen uit de repository "AI Algorithmic and Automation Incidents and Controversies." Ze vergeleken elk algoritme dat als problematisch was aangeduid met een vergelijkbaar algoritme dat niet wegens vooringenomenheid was genoemd, en onderzochten zowel de technische systemen als de organisaties die ze inzetten.

De studie identificeert drie samenhangende factoren die het risico op oneerlijke uitkomsten verhogen. Ten eerste: gevallen zonder een goed vastgestelde waarheid verhogen de kans op bias, bijvoorbeeld wanneer meningen over haatspraak als objectieve feiten worden behandeld of wanneer een taak zoals het schatten van leeftijd uit een röntgenfoto geen vaste methode heeft. Ten tweede: de complexiteit van de echte wereld wordt vaak versimpeld, waardoor belangrijke variabelen ontbreken — zoals in Arkansas, waar automatisch beleid huisbezoeken verving en sommige gehandicapte mensen daardoor geen hulp bij eten en douchen kregen. Ten derde: systemen die diverse groepen bedienen kunnen bevooroordeeld raken als ze vooral door één demografische groep worden ontworpen; betrokkenheid van verschillende belanghebbenden kan tegenstrijdige doelen zichtbaar maken en leiden tot compromissen.

De onderzoekers concluderen dat het verminderen van AI-bias meer vereist dan alleen het verbeteren van nauwkeurigheid. Ontwikkelaars moeten zwarte dozen openen, rekening houden met complexe werkelijkheid, diverse input betrekken en zorgen voor duidelijke, vastgestelde waarheden. Volgens Tanriverdi zijn dit ontbrekende stukjes die dataspecialisten lijken te negeren. Het onderzoek verschijnt in MIS Quarterly; bron: UT Austin.

Moeilijke woorden

  • vooringenomenheidonrechtvaardige neiging die resultaten vertekent
  • zwarte doossysteem waarvan de werking onduidelijk of verborgen is
    zwarte dozen
  • demografischmet betrekking tot kenmerken van bevolkingsgroepen
    demografische
  • complexiteitde mate van ingewikkeldheid in een situatie
  • waarheideen feit of vaststelling die als juist geldt
  • belanghebbendepersoon of groep met een direct belang bij iets
    belanghebbenden

Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.

Discussievragen

  • Wat zijn mogelijke nadelen als een algoritme vooral door één demografische groep wordt ontworpen? Geef redenen.
  • Welke stappen zouden ontwikkelaars en organisaties kunnen nemen om beter met de complexe werkelijkheid rekening te houden? Noem concrete voorbeelden.
  • Kun je een voorbeeld noemen uit jouw omgeving waar het weglaten van belangrijke variabelen door automatisering schade kan veroorzaken? Leg uit waarom.

Gerelateerde artikelen

Journalisten vragen om hulp tegen AI-nepnieuws — Niveau B2
21 jul 2025

Journalisten vragen om hulp tegen AI-nepnieuws

Journalisten uit lage- en middeninkomenslanden vroegen tijdens het Belt and Road Journalists Forum in Ganzhou een Chinese journalistenorganisatie om hulp bij het bestrijden van door AI gemaakte nepnieuws. Ze pleiten ervoor dat platforms zoals Facebook AI-inhoud duidelijk labelen.