Kunstmatige-intelligentietools zijn wijdverbreid en soms schadelijk. In april bereikte OpenAI’s ChatGPT een miljard actieve wekelijkse gebruikers, en tegelijkertijd rapporteerden journalisten en onderzoekers voorbeelden van bevooroordeelde AI, onder meer in de zorg en bij werving.
Nieuw onderzoek van de University of Texas at Austin, door Hüseyin Tanriverdi en John-Patrick Akinyemi, analyseerde een set van 363 algoritmen uit een repository met incidenten en controverses. De onderzoekers vergeleken elk als problematisch genoemd algoritme met een vergelijkbaar algoritme dat niet wegens vooringenomenheid was genoemd. Ze onderzochten de algoritmen en de organisaties die ze maakten en gebruikten.
De studie identificeert drie samenhangende factoren die het risico op oneerlijke uitkomsten verhogen: het ontbreken van een gevestigde waarheid, de manier waarop modellen de complexe werkelijkheid versimpelen, en onvoldoende betrokkenheid van diverse belanghebbenden. Een concreet voorbeeld is Arkansas, waar geautomatiseerde beslissingen huisbezoeken vervingen en daardoor sommige gehandicapte mensen hulp bij eten en douchen misten. De onderzoekers concluderen dat het verminderen van bias meer vergt dan alleen verbeterde nauwkeurigheid; ontwikkelaars moeten transparanter werken en diverse input betrekken. Het onderzoek verschijnt in MIS Quarterly (bron: UT Austin).
Moeilijke woorden
- kunstmatige-intelligentietool — computerprogramma dat taken zelfstandig uitvoertKunstmatige-intelligentietools
- algoritme — reeks regels die computer keuzes maaktalgoritmen
- bevooroordeeld — oneerlijk oordeel over een groep mensenbevooroordeelde
- vooringenomenheid — neiging om niet eerlijk te oordelen
- repository — plaats waar bestanden en informatie worden bewaard
- gevestigde waarheid — algemeen aanvaarde of bekende feiten en informatie
- versimpelen — minder complex maken dan de werkelijkheid is
- belanghebbende — iemand of groep met belang bij een besluitbelanghebbenden
- transparant — duidelijk en open over processen en keuzestransparanter
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Welke risico's zie jij als computers belangrijke beslissingen nemen in de zorg? Geef één of twee voorbeelden.
- Hoe zou volgens jou meer betrokkenheid van diverse belanghebbenden eruit moeten zien in projecten met AI?
- Vind je dat ontwikkelaars transparanter moeten werken over hun modellen? Waarom wel of niet?
Gerelateerde artikelen
Microben overleven inslagpuin mogelijk naar andere planeten
Een studie toont dat een woestijnbacterie in puin van asteroïde-inslagen extreme drukken kan overleven. Dit suggereert dat leven via gesteente naar andere hemellichamen kan reizen en roept vragen op voor planetenbescherming.
Toegang tot federale sites via Tor deels hersteld in Mexico
Toegang tot sommige federale websites in Mexico via het Tor-netwerk was lange tijd geblokkeerd. In mei en juli 2025 bevestigde de overheid dat www.gob.mx weer via Tor bereikbaar is, maar enkele diensten blijven geblokkeerd.
Display dat beelden zichtbaar en voelbaar maakt
Onderzoekers van University of California, Santa Barbara ontwikkelden een display dat mensen kunnen zien en aanraken. Het systeem gebruikt optotactiele pixels en een laserscanner om voelbare bultjes te maken en maakt dynamische beelden mogelijk.
Tieners in Hongkong zoeken emotionele steun bij AI-chatbots
Hong Kong Free Press publiceerde op 12 oktober 2025 een verslag over tieners die AI-chatbots zoals Character.AI en Xingye gebruiken voor troost. Experts waarschuwen voor risico's, privacyproblemen en het belang van menselijke steun.