Kunstmatige-intelligentietools zijn wijdverbreid en soms schadelijk. In april bereikte OpenAI’s ChatGPT een miljard actieve wekelijkse gebruikers, en tegelijkertijd rapporteerden journalisten en onderzoekers voorbeelden van bevooroordeelde AI, onder meer in de zorg en bij werving.
Nieuw onderzoek van de University of Texas at Austin, door Hüseyin Tanriverdi en John-Patrick Akinyemi, analyseerde een set van 363 algoritmen uit een repository met incidenten en controverses. De onderzoekers vergeleken elk als problematisch genoemd algoritme met een vergelijkbaar algoritme dat niet wegens vooringenomenheid was genoemd. Ze onderzochten de algoritmen en de organisaties die ze maakten en gebruikten.
De studie identificeert drie samenhangende factoren die het risico op oneerlijke uitkomsten verhogen: het ontbreken van een gevestigde waarheid, de manier waarop modellen de complexe werkelijkheid versimpelen, en onvoldoende betrokkenheid van diverse belanghebbenden. Een concreet voorbeeld is Arkansas, waar geautomatiseerde beslissingen huisbezoeken vervingen en daardoor sommige gehandicapte mensen hulp bij eten en douchen misten. De onderzoekers concluderen dat het verminderen van bias meer vergt dan alleen verbeterde nauwkeurigheid; ontwikkelaars moeten transparanter werken en diverse input betrekken. Het onderzoek verschijnt in MIS Quarterly (bron: UT Austin).
Moeilijke woorden
- kunstmatige-intelligentietool — computerprogramma dat taken zelfstandig uitvoertKunstmatige-intelligentietools
- algoritme — reeks regels die computer keuzes maaktalgoritmen
- bevooroordeeld — oneerlijk oordeel over een groep mensenbevooroordeelde
- vooringenomenheid — neiging om niet eerlijk te oordelen
- repository — plaats waar bestanden en informatie worden bewaard
- gevestigde waarheid — algemeen aanvaarde of bekende feiten en informatie
- versimpelen — minder complex maken dan de werkelijkheid is
- belanghebbende — iemand of groep met belang bij een besluitbelanghebbenden
- transparant — duidelijk en open over processen en keuzestransparanter
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Welke risico's zie jij als computers belangrijke beslissingen nemen in de zorg? Geef één of twee voorbeelden.
- Hoe zou volgens jou meer betrokkenheid van diverse belanghebbenden eruit moeten zien in projecten met AI?
- Vind je dat ontwikkelaars transparanter moeten werken over hun modellen? Waarom wel of niet?
Gerelateerde artikelen
AI leert waarom koppen werken
Een studie van onderzoekers van de Yale School of Management toont dat een taalmodel betere en betrouwbaardere koppen schrijft als het leert waarom mensen op bepaalde koppen klikken. Ze testten de methode met bestaande A/B-testgegevens en menselijke beoordelingen.
Batterij uit de bodem voedt landbouwsensoren
Een spin-off van de University of Bath ontwikkelde Bactery, een batterij die energie oogst uit bodembacteriën om sensoren en IoT-apparaten op landbouwgrond van stroom te voorzien. Het apparaat is getest in Brazilië en de makers willen opschalen.
AI verbetert basisgezondheidszorg in sub-Sahara Afrika
AI-systemen helpen bij snelle diagnostiek in landen als Kenia, Ghana en Rwanda. Pilots laten minder onjuiste antibiotica en minder ernstige malariacomplicaties zien, maar regelgeving, privacy en financiering blijven belangrijke uitdagingen.