Kunstmatige-intelligentietools zijn wijdverbreid en soms schadelijk. In april bereikte OpenAI’s ChatGPT een miljard actieve wekelijkse gebruikers, en tegelijkertijd rapporteerden journalisten en onderzoekers voorbeelden van bevooroordeelde AI, onder meer in de zorg en bij werving.
Nieuw onderzoek van de University of Texas at Austin, door Hüseyin Tanriverdi en John-Patrick Akinyemi, analyseerde een set van 363 algoritmen uit een repository met incidenten en controverses. De onderzoekers vergeleken elk als problematisch genoemd algoritme met een vergelijkbaar algoritme dat niet wegens vooringenomenheid was genoemd. Ze onderzochten de algoritmen en de organisaties die ze maakten en gebruikten.
De studie identificeert drie samenhangende factoren die het risico op oneerlijke uitkomsten verhogen: het ontbreken van een gevestigde waarheid, de manier waarop modellen de complexe werkelijkheid versimpelen, en onvoldoende betrokkenheid van diverse belanghebbenden. Een concreet voorbeeld is Arkansas, waar geautomatiseerde beslissingen huisbezoeken vervingen en daardoor sommige gehandicapte mensen hulp bij eten en douchen misten. De onderzoekers concluderen dat het verminderen van bias meer vergt dan alleen verbeterde nauwkeurigheid; ontwikkelaars moeten transparanter werken en diverse input betrekken. Het onderzoek verschijnt in MIS Quarterly (bron: UT Austin).
Moeilijke woorden
- kunstmatige-intelligentietool — computerprogramma dat taken zelfstandig uitvoertKunstmatige-intelligentietools
- algoritme — reeks regels die computer keuzes maaktalgoritmen
- bevooroordeeld — oneerlijk oordeel over een groep mensenbevooroordeelde
- vooringenomenheid — neiging om niet eerlijk te oordelen
- repository — plaats waar bestanden en informatie worden bewaard
- gevestigde waarheid — algemeen aanvaarde of bekende feiten en informatie
- versimpelen — minder complex maken dan de werkelijkheid is
- belanghebbende — iemand of groep met belang bij een besluitbelanghebbenden
- transparant — duidelijk en open over processen en keuzestransparanter
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Welke risico's zie jij als computers belangrijke beslissingen nemen in de zorg? Geef één of twee voorbeelden.
- Hoe zou volgens jou meer betrokkenheid van diverse belanghebbenden eruit moeten zien in projecten met AI?
- Vind je dat ontwikkelaars transparanter moeten werken over hun modellen? Waarom wel of niet?
Gerelateerde artikelen
Oeganda moet gender- en financieringskloven in wetenschap aanpakken
Dit artikel bespreekt de noodzaak om gendergelijkheid en financiering van wetenschappelijk onderzoek in Oeganda te verbeteren.
Ngogo-chimpansees breiden territorium uit na dodelijke aanvallen
Nieuw onderzoek toont dat de Ngogo-chimpansees buren doodden om hun territorium te vergroten. Na die uitbreiding stegen geboorten (15 naar 37) en daalde zuigelingensterfte (41% naar 8%) in de driejarige periode erna.
AI vergroot ongelijkheid tussen mondiaal Noorden en Zuid
AI kan veel economische waarde brengen, maar de voordelen gaan vooral naar rijke landen. Het artikel beschrijft voorbeelden uit Afrika, beleid over chips en datacenters, en roept op tot eerlijk bestuur en samenwerking.
Technologie en transparantie in verkiezingen
Dit artikel bespreekt hoe technologie kan helpen bij transparantie en feitencontrole tijdens verkiezingen in Ecuador.
Groot Maya-monument Aguada Fénix in zuidoost-Mexico
Een groot monument bij Aguada Fénix in Tabasco toont vroeg-Maya rituelen. Opgravingen en lidar laten zien dat het bouwwerk uit 1,000 BCE komt en ceremoniële voorwerpen, pigmenten en wegen bevat.
Mensen met gezichtsverlies schatten aankomst van voertuigen
Onderzoekers vergeleken volwassenen met leeftijdsgebonden maculadegeneratie en mensen met normaal zicht bij het schatten van de aankomsttijd van een voertuig in een virtuele omgeving. Beide groepen gebruikten zicht en geluid; er was geen extra voordeel van beide samen.