Réseaux sociaux, désinformation et IACEFR B2
10 nov. 2025
Adapté de Safa, Global Voices • CC BY 3.0
Photo de Mariia Shalabaieva, Unsplash
Les plateformes de médias sociaux offrent à la fois des avantages concrets et des risques sérieux. Elles permettent à des personnes marginalisées de trouver du soutien et de former des communautés, mais elles facilitent aussi la diffusion de discours de haine, de mensonges et d’attaques qui ont un impact hors ligne. Des experts insistent sur le fait que la technologie augmente souvent simultanément ces bénéfices et ces risques, et que l’équilibre dépend des choix de conception et de qui contrôle les outils.
En janvier 2025, Meta a annoncé la fin de son programme de vérification des faits de neuf ans et l’adoption du modèle «community notes» utilisé sur X, tout en supprimant certaines politiques protégeant les utilisateurs LGBTQ+. L’International Fact-Checking Network a qualifié cette décision de «un pas en arrière». Le Haut-Commissaire des Nations unies Volker Türk a prévenu : «Permettre les discours de haine et les contenus nuisibles en ligne a des conséquences dans le monde réel.»
Les chercheurs pointent des mécanismes de produit qui favorisent l’engagement : viralité, recommandations et optimisation pour les clics. Une étude a montré que 15% des utilisateurs étaient responsables de 37% des fausses manchettes partagées. Les algorithmes, difficiles à corriger, décident souvent du flux d’information, et les rectifications n’attirent pas autant d’attention que les fausses affirmations initiales. First Draft News note qu’«il est très, très difficile de déloger [la désinformation] de votre cerveau.»
Les systèmes automatisés et l’IA générative ajoutent une autre couche de risque. Aux élections indonésiennes de 2024, des avatars numériques générés par IA ont été largement utilisés par l’ancien candidat Prabowo Subianto. Des rapports, dont Freedom House en 2023, alertent que ces outils facilitent la censure ciblée et rendent la vérité plus difficile à discerner. Des cas comme le Venezuela — où des messages pro-gouvernementaux générés par IA côtoient des menaces contre des journalistes utilisant parfois des avatars pour se protéger — montrent que la même technologie peut protéger ou nuire selon son usage. Une petite page humoristique comme «Shrimp Jesus» peut néanmoins éroder la confiance et alimenter des courtiers de données, avec des conséquences réelles pour les escroqueries et les opérations d’influence.
Mots difficiles
- marginalisé — exclu ou peu reconnu dans la sociétémarginalisées
- vérification — processus de contrôle de la vérité des informations
- désinformation — informations fausses diffusées pour tromper
- algorithme — programme qui décide du contenu montréalgorithmes
- viralité — propagation rapide et large d'un contenu
- optimisation — adaptation pour augmenter un résultat souhaité
- intelligence artificielle générative — intelligence artificielle qui crée du contenuIA générative
- avatar — représentation numérique d'une personne en ligneavatars
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Comment, selon vous, les choix de conception des plateformes peuvent-ils influencer l'équilibre entre bénéfices et risques ? Donnez un ou deux exemples.
- Quels avantages concrets et quels risques réels les réseaux sociaux apportent-ils aux personnes marginalisées, d'après le texte et votre expérience ?
- L'article mentionne que la même technologie peut protéger ou nuire selon son usage. Pouvez-vous expliquer ce contraste avec un exemple ?
Articles liés
Népal : violences lors de manifestations étudiantes en septembre 2025
Début septembre 2025, des manifestations étudiantes contre une interdiction des réseaux sociaux ont dégénéré à Katmandou, faisant au moins 19 morts. Un gouvernement intérimaire dirigé par Sushila Karki promet des enquêtes et des élections en mars 2026.
L'IA pour l'information en santé sexuelle en Amérique latine
Des groupes et ONG en Amérique latine utilisent l'intelligence artificielle pour élargir l'accès à l'information sur la santé sexuelle et reproductive. Des projets au Pérou et en Argentine ciblent les jeunes et les populations marginalisées, mais des risques de biais sont signalés.
Nouvelle méthode d'échographie pour mieux distinguer les masses du sein
Des chercheurs présentent une approche de traitement du signal échographique qui rend les images plus nettes et distingue mieux les masses liquides des masses solides. Les premiers essais montrent une amélioration importante du diagnostic et moins de biopsies inutiles.