Een recent onderzoek onthulde dat grote taalmodellen (LLM's) hun oordeel aanpassen op basis van de auteur. Ondanks dat de inhoud van de teksten hetzelfde blijft, blijkt dat ze bevooroordeelde beoordelingen geven indien de oorsprong van de tekst bekend is. Het onderzoek toont dat LLM's een sterke anti-Chinese vooringenomenheid hebben, zelfs wanneer de auteur hypothetisch een Chinese persoon is.
Wanneer informatie over de auteur werd onthuld, verminderde de overeenstemming tussen de verschillende LLM's aanzienlijk. In feite daalde de overeenstemming met de inhoud van de tekst tot 75% wanneer een Chinese auteur werd gesuggereerd, zelfs als de argumenten logisch waren.
Daarnaast blijkt uit het onderzoek dat LLM's mensen liever geloven dan andere AI-modellen. De bevindingen wijzen op een ingebouwde wantrouwen jegens machinegegenereerde inhoud, wat problematisch kan zijn in contexten zoals het modereren van inhoud of wervingsprocessen. De onderzoekers pleiten voor meer transparantie in hoe AI informatie evalueert, om dit soort verborgen vooroordelen te voorkomen.
Voordat AI in gevoelige sociale of politieke situaties wordt gebruikt, moet er aandacht zijn voor deze vooringenomenheid.
Moeilijke woorden
- onderzoek — Een studie naar iets om meer te leren.
- bevooroordeeld — Een oordeel dat oneerlijk of partijdig is.bevooroordeelde
- vooringenomenheid — Een onjuiste mening over iets of iemand.
- wantrouwen — Geen vertrouwen of geloof in iets.
- transparantie — Duidelijkheid over hoe dingen werken.
- inhoud — Wat informatie of een tekst bevat.
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Welke gevolgen heeft vooringenomenheid in AI?
- Hoe kan transparantie helpen in de AI-ontwikkeling?
- Waarom is het belangrijk om aandacht te besteden aan vooringenomenheid voordat AI wordt gebruikt?
Gerelateerde artikelen
Voordelen en kansen in de digitale economie moeten gelijker worden verdeeld
Dit artikel bespreekt de ongelijke verdeling van voordelen en kansen in de digitale economie met betrekking tot kunstmatige intelligentie.
Darwinisme uit Indiase schoolboeken verwijderd
Docenten in India vragen de overheid om Darwinistische evolutie terug te brengen in de schoolboeken. Dit kwam doordat de theorie werd verwijderd na de COVID-19 pandemie.
AI en de moderne rechtbanken in India
India moderniseert rechtbanken met e-Courts Phase III en AI-tools voor transcriptie, vertaling en onderzoek. Kerala verplicht Adalat.AI vanaf 1 november 2025, maar er zijn zorgen over fouten, vooringenomenheid en privacy.
Jonge innovatoren bestrijden het met arseen besmette water in India
Twee broers in India hebben een technologie ontwikkeld om arseen uit water te verwijderen. Hun oplossing is eenvoudig en kostenbesparend, en heeft al duizenden levens beïnvloed.
AI en burgers detecteren invasieve mug in Madagaskar
Onderzoekers gebruiken kunstmatige intelligentie en foto's van burgers om een invasieve mug te identificeren in Madagaskar.
Afrika heeft een nieuw vroegwaarschuwingssysteem voor het klimaat
Afrika heeft SEWA gelanceerd, een satellietgebaseerd systeem voor vroegtijdige waarschuwingen over klimaatverandering, om beter voorbereid te zijn op natuurrampen.