Onderzoekers onderzochten of gewone AI-chatbotantwoorden mensen kunnen beïnvloeden. Ze zagen dat korte, feitelijke samenvattingen soms iemands mening veranderen wanneer de tekst een liberale of conservatieve kadering heeft.
De studie vergeleek AI-samenvattingen met informatie op Wikipedia. Zowel standaard-AI-teksten als liberale kadering leidden vaker tot liberale opvattingen. Conservatieve kadering had vooral effect bij mensen die al conservatief waren.
De onderzoekers zeggen dat dit komt door vooringenomenheden in de taalmodellen en waarschuwen voor de ondoorzichtigheid van chatbotontwikkeling.
Moeilijke woorden
- samenvatting — korte tekst met de belangrijkste informatiesamenvattingen
- kadering — manier waarop informatie wordt gepresenteerd
- vooringenomenheid — negatieve of positieve voorkeur in informatievooringenomenheden
- ondoorzichtigheid — niet duidelijk maken hoe iets werkt of gebeurt
- taalmodel — computerprogramma dat tekst genereert of begrijpttaalmodellen
- beïnvloeden — iemand of iets veranderen in gedrag of mening
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Heb je ooit een AI-samenvatting gelezen die je mening veranderde? Waarom?
- Waarom zijn vooringenomenheden in taalmodellen een probleem?
- Welke bron vertrouw jij meer: Wikipedia of een AI-samenvatting? Leg kort uit.
Gerelateerde artikelen
Hersenen voorspellen woorden met grammaticale groepen
Nieuw onderzoek in Nature Neuroscience laat zien dat het menselijke brein komende woorden anticipeert door woorden in grammaticale groepen te organiseren, in plaats van alleen het volgende woord te voorspellen zoals veel AI-modellen doen.
Genduplicatie geeft houtratten weerstand tegen ratelslangengif
Nieuw onderzoek laat zien dat houtratten beten van ratelslangen kunnen overleven door een genetische verandering. Ze hebben meerdere kopieën van het gen SERPINA3; sommige eiwitten binden ratelslangengif en blokkeren de giftige werking.