Social network: informazione, comunità e rischiCEFR B2
10 nov 2025
Adattato da Safa, Global Voices • CC BY 3.0
Foto di Mariia Shalabaieva, Unsplash
I social network influenzano profondamente come le persone si informano e costruiscono relazioni. Offrono visibilità e sostegno, soprattutto a chi è emarginato, ma creano anche meccanismi che amplificano discorsi d’odio, disinformazione e danni tangibili nella vita reale. Esperti sottolineano che spesso la tecnologia aumenta sia i benefici sia i rischi.
A gennaio 2025 Meta ha annunciato la fine del programma di fact‑checking gestito da terze parti e l’adozione di un modello basato sulle “community notes”; ha inoltre eliminato alcune politiche a tutela degli utenti LGBTQ+. L’International Fact‑Checking Network ha definito la fine del programma di nove anni «un passo indietro», e l’Alto Commissario ONU Volker Türk ha avvertito che consentire discorsi d’odio online produce conseguenze nel mondo reale.
Prove empiriche mostrano come le scelte di design favoriscano l’engagement: un report trapelato di Facebook e studi accademici osservano che la viralità, le raccomandazioni e l’ottimizzazione per i clic aiutano la diffusione di contenuti nocivi; uno studio ha rilevato che il 15% degli utenti più assidui di Facebook era responsabile del 37% delle false headline condivise nello studio. Le smentite raramente raggiungono la stessa attenzione e, come scritto da First Draft News, «È molto, molto difficile rimuovere [la disinformazione] dal cervello».
In aggiunta, i sistemi di raccomandazione sono stati collegati a pattern di radicalizzazione: studi del 2021 hanno mostrato che l’algoritmo di TikTok poteva condurre spettatori verso contenuti della destra estrema; YouTube è stato descritto come un «motore di radicalizzazione» e sono emersi problemi anche su YouTube Kids. L’intelligenza artificiale generativa ha introdotto nuove minacce: le elezioni indonesiane del 2024 hanno evidenziato avatar digitali ampiamente usati, e un report di Freedom House del 2023 ha avvertito che i sistemi automatizzati rendono più facile distorcere la verità e più difficile riconoscerla. In paesi come il Venezuela messaggi pro‑governativi generati dall’AI convivono con minacce ai giornalisti e con l’uso di avatar per proteggere identità. Anche pagine ironiche come «Shrimp Jesus» possono erodere la fiducia e alimentare data broker, con conseguenze reali per truffe e operazioni di influenza.
In definitiva l’equilibrio tra vantaggi e rischi dipende dalle scelte di design delle piattaforme, dalle strutture di potere e da chi controlla gli strumenti tecnici.
Parole difficili
- disinformazione — informazioni false o fuorvianti diffuse online
- emarginato — persona esclusa o isolata dalla società
- sistema di raccomandazione — programma che suggerisce contenuti agli utentisistemi di raccomandazione
- algoritmo — insieme di regole usate dai computer
- radicalizzazione — processo di avvicinamento a idee estremiste
- viralità — capacità di un contenuto di diffondersi molto
- avatar — rappresentazione digitale di una persona o identitàavatar digitali
- conseguenza — effetto o risultato di un'azione o eventoconseguenze
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- In che modo, secondo il testo, le scelte di design delle piattaforme influenzano l'equilibrio tra vantaggi e rischi?
- Quali misure concrete potrebbero ridurre la diffusione della disinformazione senza eliminare la visibilità per persone emarginate?
- Che rischi comportano l'uso di avatar e sistemi automatizzati nelle elezioni e nella sicurezza dei giornalisti?
Articoli correlati
La Cina avvia una campagna per rimuovere contenuti "negativi" online
Il 22 settembre la CAC ha lanciato una campagna di due mesi per cancellare post, video e commenti che definisce istiganti o pessimisti. Alcuni influencer sono stati bannati e l'operazione è collegata al malcontento giovanile.
Giovani in piazza in Madagascar e Marocco per servizi e giustizia
Giovani nati alla fine degli anni 1990 e inizio 2000 hanno organizzato proteste in Madagascar e in Marocco per chiedere servizi migliori, fine della corruzione e più voce politica. Le manifestazioni hanno attirato repressione e critiche per disuguaglianze e legami coloniali.
Sensori e intelligenza artificiale per monitorare l'aria in Sudafrica
Scienziati sudafricani hanno creato AI_r, un sistema con sensori, Internet of Things e intelligenza artificiale per misurare la qualità dell'aria in tempo reale. Il progetto usa reti a basso costo e sta ampliando i sensori nel distretto di Sedibeng.