Social network: informazione, comunità e rischiCEFR B2
10 nov 2025
Adattato da Safa, Global Voices • CC BY 3.0
Foto di Mariia Shalabaieva, Unsplash
I social network influenzano profondamente come le persone si informano e costruiscono relazioni. Offrono visibilità e sostegno, soprattutto a chi è emarginato, ma creano anche meccanismi che amplificano discorsi d’odio, disinformazione e danni tangibili nella vita reale. Esperti sottolineano che spesso la tecnologia aumenta sia i benefici sia i rischi.
A gennaio 2025 Meta ha annunciato la fine del programma di fact‑checking gestito da terze parti e l’adozione di un modello basato sulle “community notes”; ha inoltre eliminato alcune politiche a tutela degli utenti LGBTQ+. L’International Fact‑Checking Network ha definito la fine del programma di nove anni «un passo indietro», e l’Alto Commissario ONU Volker Türk ha avvertito che consentire discorsi d’odio online produce conseguenze nel mondo reale.
Prove empiriche mostrano come le scelte di design favoriscano l’engagement: un report trapelato di Facebook e studi accademici osservano che la viralità, le raccomandazioni e l’ottimizzazione per i clic aiutano la diffusione di contenuti nocivi; uno studio ha rilevato che il 15% degli utenti più assidui di Facebook era responsabile del 37% delle false headline condivise nello studio. Le smentite raramente raggiungono la stessa attenzione e, come scritto da First Draft News, «È molto, molto difficile rimuovere [la disinformazione] dal cervello».
In aggiunta, i sistemi di raccomandazione sono stati collegati a pattern di radicalizzazione: studi del 2021 hanno mostrato che l’algoritmo di TikTok poteva condurre spettatori verso contenuti della destra estrema; YouTube è stato descritto come un «motore di radicalizzazione» e sono emersi problemi anche su YouTube Kids. L’intelligenza artificiale generativa ha introdotto nuove minacce: le elezioni indonesiane del 2024 hanno evidenziato avatar digitali ampiamente usati, e un report di Freedom House del 2023 ha avvertito che i sistemi automatizzati rendono più facile distorcere la verità e più difficile riconoscerla. In paesi come il Venezuela messaggi pro‑governativi generati dall’AI convivono con minacce ai giornalisti e con l’uso di avatar per proteggere identità. Anche pagine ironiche come «Shrimp Jesus» possono erodere la fiducia e alimentare data broker, con conseguenze reali per truffe e operazioni di influenza.
In definitiva l’equilibrio tra vantaggi e rischi dipende dalle scelte di design delle piattaforme, dalle strutture di potere e da chi controlla gli strumenti tecnici.
Parole difficili
- disinformazione — informazioni false o fuorvianti diffuse online
- emarginato — persona esclusa o isolata dalla società
- sistema di raccomandazione — programma che suggerisce contenuti agli utentisistemi di raccomandazione
- algoritmo — insieme di regole usate dai computer
- radicalizzazione — processo di avvicinamento a idee estremiste
- viralità — capacità di un contenuto di diffondersi molto
- avatar — rappresentazione digitale di una persona o identitàavatar digitali
- conseguenza — effetto o risultato di un'azione o eventoconseguenze
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- In che modo, secondo il testo, le scelte di design delle piattaforme influenzano l'equilibrio tra vantaggi e rischi?
- Quali misure concrete potrebbero ridurre la diffusione della disinformazione senza eliminare la visibilità per persone emarginate?
- Che rischi comportano l'uso di avatar e sistemi automatizzati nelle elezioni e nella sicurezza dei giornalisti?
Articoli correlati
Intervision: la rinascita di un concorso musicale tra cultura e politica
Organizzatori russi hanno annunciato la rinascita di Intervision nel 2025, presentandola come apolitica. Osservatori vedono somiglianze con Eurovision e crescono dibattiti su traduzioni, immagini e reazioni sociali.