Onderzoekers van de University of Zurich testten vier veelgebruikte taalmodellen: OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 en Mistral. Elk model genereerde 50 verhalende uitspraken over 24 controversiële onderwerpen, zoals vaccinatieverplichtingen, geopolitiek en klimaatbeleid. De onderzoekers verzamelden in totaal 192’000 beoordelingen om de effecten te analyseren.
Wanneer geen bron werd gegeven, lagen de overeenkomsten tussen modellen boven 90% over alle onderwerpen. Maar toen fictieve auteurs werden toegevoegd, daalde de overeenstemming sterk, ook al bleef de tekst hetzelfde. Het meest opvallende resultaat was een duidelijk anti-Chinese bias in alle modellen. Germani merkt op dat dit minder gunstige oordeel soms verscheen terwijl het argument logisch en goed geschreven was.
De studie toont ook dat modellen menselijke auteurs over het algemeen meer vertrouwen dan andere AI-systemen. De onderzoekers waarschuwen dat deze verborgen vooroordelen praktisch belangrijk zijn voor contentmoderatie, werving, academische review en journalistiek. Zij pleiten voor meer transparantie en governance en adviseren LLMs als hulpmiddelen, niet als vervangers.
Moeilijke woorden
- onderzoek — Een studie naar iets om meer te leren.
- bevooroordeeld — Een oordeel dat oneerlijk of partijdig is.bevooroordeelde
- vooringenomenheid — Een onjuiste mening over iets of iemand.
- wantrouwen — Geen vertrouwen of geloof in iets.
- transparantie — Duidelijkheid over hoe dingen werken.
- inhoud — Wat informatie of een tekst bevat.
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Welke gevolgen heeft vooringenomenheid in AI?
- Hoe kan transparantie helpen in de AI-ontwikkeling?
- Waarom is het belangrijk om aandacht te besteden aan vooringenomenheid voordat AI wordt gebruikt?
Gerelateerde artikelen
Nieuwe neuronen graven tunnels in vogelhersenen
Een studie van Boston University toont dat nieuwe neuronen bij zebrafinches door rijp hersenweefsel tunnelen. De bevinding kan verklaren beperkingen van neurogenese bij volwassenen en is relevant voor mogelijke toekomstige therapieën.
Meer data en technologie bij de Winterspelen 2026
De Winterspelen van 2026 gebruiken meer data en nieuwe technologieën. Teams, onderzoekers en media gebruiken analyses om training, verslaggeving en het begrip van prestaties te veranderen, maar er blijven vragen over eerlijkheid en toegang.
TikTok en clanidentiteit in Somalië
TikTok beïnvloedt clanidentiteit in Somalië: jongeren en vrouwen tonen clanloyaliteit, clangevechten in livestreams leiden tot donaties en soms financiering van conflicten zoals in Laasanood. Experts adviseren moderatie en digitale geletterdheid.