Sociale media: steun, desinformatie en nieuwe risico'sCEFR B1
10 nov 2025
Gebaseerd op Safa, Global Voices • CC BY 3.0
Foto door Mariia Shalabaieva, Unsplash
Sociale media spelen een groeiende rol bij hoe mensen informatie vinden en hoe gemeenschappen ontstaan. Voor veel mensen uit gemarginaliseerde groepen bieden platforms steun en verbinding. Tegelijk tonen studies dat sociale media haatspraak, desinformatie en echte schade kunnen verspreiden, en dat ontwerpkeuzes die betrokkenheid optimaliseren deze problemen versterken.
In januari 2025 kondigde Mark Zuckerberg aan dat Meta zijn factcheckprogramma met derden zou stopzetten en het "community notes"-model zou overnemen. Het International Fact-Checking Network noemde het einde van Metas negenjarige factcheckprogramma een stap terug. De VN Hoge Commissaris voor de Mensenrechten waarschuwde dat het toestaan van haatspraak online echte gevolgen heeft.
Onderzoekers noemen ook cijfers: de 15% meest actieve Facebook-gebruikers waren verantwoordelijk voor 37% van de valse koppen in een studie. Aanbevelingssystemen en algoritmes beslissen wat mensen zien, correcties krijgen zelden evenveel aandacht en generatieve AI maakt het verspreiden van misleidende inhoud makkelijker.
Moeilijke woorden
- gemeenschap — Groep mensen met iets gemeen.gemeenschappen
- desinformatie — Valse informatie die verkeerd is.
- ondersteunen — Hulp bieden aan iemand of iets.
- risico — Kans op schade of verlies.risico's
- sociale media — Platforms waar mensen online communiceren.
- technologie — Apparaten en methoden voor innovatie.
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Wat vind jij van de invloed van sociale media op jongeren?
- Hoe kan desinformatie gevolgen hebben voor gemeenschappen?
- In welke zin is technologie neutraal volgens de tekst?
Gerelateerde artikelen
Onderzoekers verbeteren veiligheid van grote taalmodellen
Onderzoekers van North Carolina State University onderzochten hoe veiligheidsafstemming werkt in grote taalmodellen. Ze ontwikkelden een methode om onveilige antwoorden te verminderen zonder de prestaties van het model te verliezen.
Vrouwen en online aanvallen tijdens Oegandese verkiezingen
Tijdens de algemene verkiezingen van januari 2026 werden veel Oegandese vrouwen online aangevallen met nepbeelden, deepfakes en gendergerichte desinformatie. Technologie versterkt bestaand geweld en bemoeilijkt de politieke deelname van vrouwen.
Onderzoekers: AI-bias komt door te simpele modellen
Onderzoekers van de University of Texas at Austin bestudeerden problematische AI-algoritmen. Zij vinden dat bias vaak ontstaat omdat modellen de complexe werkelijkheid niet goed vastleggen. Ze noemen drie belangrijke factoren en geven concrete voorbeelden.