Onderzoekers van Rockefeller University hebben met fMRI bij makaakapen een gezichtsmotornetwerk in kaart gebracht. De studie, geleid door Winrich Freiwald en gepubliceerd in Science, onderzocht hoe de hersenen gezichtsbewegingen genereren in plaats van alleen gezichten te herkennen.
De onderzoekers identificeerden drie corticale zones met directe toegang tot gezichtsspieren: de cingulate motorcortex (mediaal), de primaire en premotorische cortex (lateraal) en de primaire somatosensorische cortex. Voor de analyse vroegen zij de dieren om drie acties uit te voeren: dreigen (staren met open bek en ontblote tanden), lipsmacking (snelle lipbewegingen en platliggende oren) en kauwen (vrijwillig, niet-sociaal). De stimuli omvatten directe interactie, videobeelden en digitale avatars.
Belangrijk is dat zowel hogere als lagere corticale gebieden deelnemen aan zowel emotionele als vrijwillige expressies. Alle regio’s namen deel aan alle gebaren, maar ze werkten op verschillende tijdschalen: laterale gebieden lieten snelle neurale dynamiek zien, mediale gebieden vertoonden langzamere, stabielere activiteit. Een gerelateerde analyse in PNAS toont dat deze regio’s een onderling verbonden sensorimotorisch netwerk vormen dat de coördinatie per beweging aanpast.
Moeilijke woorden
- gezichtsmotornetwerk — netwerk in de hersenen dat spieren van het hoofd aanstuurt
- cingulate motorcortex — gedeelte van de cortex betrokken bij beweging van spieren
- premotorische cortex — hersenregio die beweging voorbereidt voor uitvoering
- lipsmacking — snelle herhaalde lipbewegingen als sociaal gebaar
- neurale dynamiek — veranderingen in activiteit van zenuwcellen over tijd
- mediaal — aan de binnenzijde van de hersenen gelegen
- vrijwillig — door het individu bewust en niet automatisch gedaan
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Waarom is het volgens jou belangrijk dat zowel hogere als lagere corticale gebieden deelnemen aan gezichtsuitdrukkingen?
- Kun je voorbeelden noemen van menselijke gezichtsbewegingen die lijken op dreigen, lipsmacking of kauwen?
- Hoe zouden digitale avatars kunnen helpen bij onderzoek naar gezichtsbewegingen?
Gerelateerde artikelen
AI kan persoonlijkheid voorspellen uit taal
Onderzoekers vonden dat algemene AI-modellen zoals ChatGPT, Claude en LLaMa persoonlijkheid en dagelijks gedrag kunnen voorspellen uit wat mensen zeggen. De AI-scores kwamen vaak overeen met zelfbeoordelingen en voorspelden ook emoties en stress.
AI en draagbare apparaten bij type 2-diabetes
Een meta-overzicht onderzoekt AI-versterkte draagbare apparaten voor mensen met type 2-diabetes en prediabetes. Het overzicht selecteerde 60 van ongeveer 5,000 studies en vindt zowel voordelen (voorspelling 1–2 uur) als belangrijke beperkingen en onderzoekstekorten.
Waarom taalmodellen moeite hebben met vermenigvuldigen
Onderzoekers van de University of Chicago en partners onderzochten waarom grote taalmodellen twee viercijferige getallen slecht vermenigvuldigen. Een nieuwe trainingsmethode (ICoT) liet modellen tussentijdse waarden onthouden en verbeterde de nauwkeurigheid sterk.