Sociale media: steun, desinformatie en nieuwe risico'sCEFR A1
10 nov 2025
Gebaseerd op Safa, Global Voices • CC BY 3.0
Foto door Mariia Shalabaieva, Unsplash
- Sociale media zijn belangrijk voor veel mensen.
- Ze geven steun aan gemarginaliseerde groepen.
- Ze verspreiden soms haatspraak en leugens.
- Desinformatie kan echte schade veroorzaken.
- In januari 2025 stopte Meta met externe factchecks.
- Meta gebruikt nu een "community notes"-model.
- Algoritmes bepalen vaak wat mensen zien.
- Algoritmes belonen klikken en betrokkenheid.
- Generatieve AI maakt realistische maar misleidende inhoud.
- De balans hangt af van ontwerp en macht.
Moeilijke woorden
- sociale media — Online platforms voor interactie en communicatie.
- vrienden — Mensen met wie je een goede relatie hebt.
- verbinden — Met iemand of iets in contact komen.zich te verbinden
- haatspraak — Negatieve of beledigende woorden tegen anderen.
- gezondheid — De toestand van je lichaam en geest.mentale gezondheid
- desinformatie — Onjuiste of misleidende informatie.
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Waarom denk je dat jongeren online vrienden maken?
- Hoe kunnen sociale media zowel goed als slecht zijn?
- Wat kan je doen tegen haatspraak online?
Gerelateerde artikelen
Onderzoekers verbeteren veiligheid van grote taalmodellen
Onderzoekers van North Carolina State University onderzochten hoe veiligheidsafstemming werkt in grote taalmodellen. Ze ontwikkelden een methode om onveilige antwoorden te verminderen zonder de prestaties van het model te verliezen.
Vrouwen en online aanvallen tijdens Oegandese verkiezingen
Tijdens de algemene verkiezingen van januari 2026 werden veel Oegandese vrouwen online aangevallen met nepbeelden, deepfakes en gendergerichte desinformatie. Technologie versterkt bestaand geweld en bemoeilijkt de politieke deelname van vrouwen.
Onderzoekers: AI-bias komt door te simpele modellen
Onderzoekers van de University of Texas at Austin bestudeerden problematische AI-algoritmen. Zij vinden dat bias vaak ontstaat omdat modellen de complexe werkelijkheid niet goed vastleggen. Ze noemen drie belangrijke factoren en geven concrete voorbeelden.