In april presenteerde promovendus Caleb Wohn een paper op de Association for Computing Machinery’s CHI-conferentie. Het onderzoek kwam uit het lab van universitair docent Eugenia Rho van Virginia Tech. Het team onderzocht hoe grote taalmodellen reageren wanneer gebruikers vóór een vraag aangeven dat ze autistisch zijn.
De onderzoekers identificeerden twaalf goed gedocumenteerde stereotypen en maakten honderden besluitvormingsscenario’s. Ze testten zes modellen, waaronder GPT-4, Claude en Llama, en genereerden 345.000 antwoorden op duizenden "Moet ik A of B doen?"-prompts over evenementen, confrontaties, nieuwe ervaringen en relaties. Vaak verschoof het advies naar aannames dat autistische mensen introvert, obsessief of niet geïnteresseerd in romantiek zijn.
In één model werd het afraden van een sociale uitnodiging bijna 75% van de tijd aanbevolen na vermelding van autisme, tegenover ongeveer 15% zonder vermelding. In sommige datingscenario’s raadde een model bijna 70% van de tijd af om romantiek te zoeken, vergeleken met ongeveer 50% zonder vermelding. Het team interviewde ook 11 AI-gebruikers met autisme; reacties varieerden van geschokt tot gerustgesteld.
De onderzoekers waarschuwen dat AI betrouwbaar kan lijken terwijl het systematische vooroordelen verbergt. Ze hopen dat ontwikkelaars systemen bouwen die duidelijker zijn en gebruikers meer controle geven over hoe persoonlijke informatie antwoorden vormt.
Moeilijke woorden
- promovendus — iemand die onderzoek doet voor een doctorstitel
- stereotype — eenvoudige, vaak onjuiste ideeën over een groepstereotypen
- besluitvormingsscenario — voorbeeldsituatie waarin iemand een keuze moet makenbesluitvormingsscenario’s
- model — computerprogramma dat taal of gedrag simuleertmodellen
- vooroordeel — negatieve mening over een persoonengroep zonder bewijsvooroordelen
- betrouwbaar — je kunt erop vertrouwen dat iets klopt
- ontwikkelaar — mensen die software of systemen makenontwikkelaars
- interviewen — vragen stellen aan iemand voor een verslaginterviewde
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Wat vind je van het idee dat AI vooroordelen kan verbergen? Geef twee redenen voor je mening.
- Welke veranderingen zouden ontwikkelaars kunnen doen om gebruikers meer controle te geven over persoonlijke informatie?
- Heb je voorbeelden gezien van advies van een computerprogramma dat vooroordelen leek te hebben? Beschrijf kort wat er gebeurde.
Gerelateerde artikelen
Nieuw lichtactief materiaal reinigt water
Onderzoekers ontwikkelden een materiaal dat met licht veel verontreinigingen in water afbreekt, waaronder moeilijk te verwijderen stoffen. Het combineert twee dunne materialen en werkt zonder metalen; tests in stromend water waren veelbelovend.
Mechanische kantelpunt verklaart snelle progressie van fibrose
Onderzoekers van Washington University en Tsinghua University ontdekten dat cellen plotseling overschakelen naar een zieke staat via een mechanisch kantelpunt. Collageenvezels en crosslinking bepalen wanneer cellen gezamenlijk fibrose veroorzaken.
AI helpt tabaksmarketing tegen jongeren tegengaan
Tijdens een conferentie in Dublin zeiden experts dat AI kan helpen voorkomen dat tabaksbedrijven jongeren online gericht benaderen. Voorbeelden uit Indonesië, India en Mexico laten zien hoe AI marketing opspoort en beleidsmakers informeert.
Abbott-Bioline geeft volgens studie veel vals-negatieven
Een studie in Malaria Journal stelt dat de veelgebruikte sneltest Abbott-Bioline veel vals-negatieve uitslagen geeft en 'niet geschikt is voor het doel'. Onderzoekers, fabrikanten en WHO reageren verschillend en nieuw bewijs wordt beoordeeld.