Xonorika Kira over het mensbeeld in kunstmatige intelligentieCEFR A2
16 apr 2026
Gebaseerd op Guest Contributor, Global Voices • CC BY 3.0
Foto door Steve A Johnson, Unsplash
Xonorika Kira bespreekt hoe de uitdrukking "de mens centraal" een beperkt beeld geeft van wie of wat intelligent kan zijn. Volgens haar sluit dit beeld vaak dierlijke, ecologische, voorouderlijke en spirituele kennis uit.
Ze wijst ook op macht en normen zoals witte suprematie en het patriarchaat, en op discriminatie van mensen met een handicap en strikte gendernormen. Bij een boekpresentatie vertelde Kira over pogingen om technologische en culturele data terug te eisen die zonder toestemming werden genomen. Ze stelt voor te werken met kleinere, relationele datasets en langzamere modellen die gemeenschappen dienen in plaats van grote schaal.
Moeilijke woorden
- uitdrukking — woord of zin die iets zegt
- beperkt — niet groot of volledig; klein bereik
- ecologisch — met betrekking tot natuur en leefmilieuecologische
- voorouderlijk — van of over eerdere generaties mensenvoorouderlijke
- discriminatie — ongelijke behandeling door vooroordelen of regels
- model — computersysteem dat beslissingen of voorspellingen maaktmodellen
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Noem één soort kennis die in de tekst wordt genoemd als vaak uitgesloten.
- Vind jij dat kleinere datasets goed zijn voor gemeenschappen? Waarom?
- Welke macht of norm uit de tekst herken je of heb je gezien? Noem één voorbeeld.
Gerelateerde artikelen
Hersenachtig weefsel gekweekt zonder dierlijke materialen
Wetenschappers kweekten functioneel hersenachtig weefsel zonder dierlijke materialen of biologische lagen. Het nieuwe PEG-scaffold ondersteunt gedoneerde cellen en maakt betrouwbare tests voor neurologische ziekten mogelijk.
Goedkope doekjes vinden lood in huis
Een nieuwe studie toont dat kleurveranderingen doekjes snel en goedkoop lood in huizen en auto’s kunnen aantonen. Onderzoekers testten de doekjes in woningen en voertuigen en vonden lood op veel oppervlakken; de methode is goedkoper dan laboratoriumtests.
Onderzoekers: AI-bias komt door te simpele modellen
Onderzoekers van de University of Texas at Austin bestudeerden problematische AI-algoritmen. Zij vinden dat bias vaak ontstaat omdat modellen de complexe werkelijkheid niet goed vastleggen. Ze noemen drie belangrijke factoren en geven concrete voorbeelden.
Kleine vertragingen kunnen misinformatie verminderen
Onderzoekers van de University of Copenhagen stellen voor delen iets moeilijker te maken. Een korte pauze en een kort leerelement, zoals een pop-upquiz, vertragen verspreiding en kunnen de kwaliteit van gedeelde berichten verbeteren.