Kunstmatige-intelligentietools groeien snel en bereiken een groot publiek. Tegelijkertijd documenteren onderzoekers en journalisten schade veroorzaakt door bevooroordeelde systemen, zoals verschillende medische behandelingen op basis van demografische kenmerken en wervingshulpmiddelen die discrimineren tegen vrouwen en zwarte kandidaten.
Onderzoekers van de University of Texas at Austin, onder wie Hüseyin Tanriverdi en PhD-kandidaat John-Patrick Akinyemi, bestudeerden een set van 363 algoritmen uit de repository "AI Algorithmic and Automation Incidents and Controversies." Ze vergeleken elk algoritme dat als problematisch was aangeduid met een vergelijkbaar algoritme dat niet wegens vooringenomenheid was genoemd, en onderzochten zowel de technische systemen als de organisaties die ze inzetten.
De studie identificeert drie samenhangende factoren die het risico op oneerlijke uitkomsten verhogen. Ten eerste: gevallen zonder een goed vastgestelde waarheid verhogen de kans op bias, bijvoorbeeld wanneer meningen over haatspraak als objectieve feiten worden behandeld of wanneer een taak zoals het schatten van leeftijd uit een röntgenfoto geen vaste methode heeft. Ten tweede: de complexiteit van de echte wereld wordt vaak versimpeld, waardoor belangrijke variabelen ontbreken — zoals in Arkansas, waar automatisch beleid huisbezoeken verving en sommige gehandicapte mensen daardoor geen hulp bij eten en douchen kregen. Ten derde: systemen die diverse groepen bedienen kunnen bevooroordeeld raken als ze vooral door één demografische groep worden ontworpen; betrokkenheid van verschillende belanghebbenden kan tegenstrijdige doelen zichtbaar maken en leiden tot compromissen.
De onderzoekers concluderen dat het verminderen van AI-bias meer vereist dan alleen het verbeteren van nauwkeurigheid. Ontwikkelaars moeten zwarte dozen openen, rekening houden met complexe werkelijkheid, diverse input betrekken en zorgen voor duidelijke, vastgestelde waarheden. Volgens Tanriverdi zijn dit ontbrekende stukjes die dataspecialisten lijken te negeren. Het onderzoek verschijnt in MIS Quarterly; bron: UT Austin.
Moeilijke woorden
- vooringenomenheid — onrechtvaardige neiging die resultaten vertekent
- zwarte doos — systeem waarvan de werking onduidelijk of verborgen iszwarte dozen
- demografisch — met betrekking tot kenmerken van bevolkingsgroependemografische
- complexiteit — de mate van ingewikkeldheid in een situatie
- waarheid — een feit of vaststelling die als juist geldt
- belanghebbende — persoon of groep met een direct belang bij ietsbelanghebbenden
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Wat zijn mogelijke nadelen als een algoritme vooral door één demografische groep wordt ontworpen? Geef redenen.
- Welke stappen zouden ontwikkelaars en organisaties kunnen nemen om beter met de complexe werkelijkheid rekening te houden? Noem concrete voorbeelden.
- Kun je een voorbeeld noemen uit jouw omgeving waar het weglaten van belangrijke variabelen door automatisering schade kan veroorzaken? Leg uit waarom.
Gerelateerde artikelen
Klimaatverschuivingen vormden lichaamsvormen van carnivoren
Nieuw onderzoek laat zien dat twee grote klimaatveranderingen in het verleden de lichaamsvormen van carnivoren hebben beïnvloed. Wetenschappers bestudeerden skeletvormen van bijna 200 soorten om te zien wanneer en hoe die veranderingen plaatsvonden.
Dubioza Kolektiv waarschuwt voor AI in 'Yebiga'
De Bosnische band Dubioza Kolektiv bracht de song Yebiga uit, een satire op de groeiende afhankelijkheid van kunstmatige intelligentie en algoritmes. De videoclip toont symbolen van technologische macht en roept op tot kritisch nadenken.
VN: bijna één miljard heeft geen toegang tot hulpmiddelen
Een VN-rapport, gepresenteerd op 16 May door WHO en UNICEF, zegt dat veel mensen geen hulpmiddelen zoals brillen of protheses kunnen krijgen. De behoefte groeit door vergrijzing en ziekten; het rapport roept op tot betere toegang.
Ongelijkheid maakt landen kwetsbaar voor pandemieën
Matthew M. Kavanagh waarschuwt dat ongelijkheid samenlevingen kwetsbaarder maakt voor pandemieën. Hij pleit voor schuldpauzes, gedeelde productie, technologische overdracht en sociale steun om de cyclus van ongelijkheid en ziekte te doorbreken.