LingVo.club
Livello
Social network: informazione, comunità e rischi — Livello B2 — a group of different social media logos

Social network: informazione, comunità e rischiCEFR B2

10 nov 2025

Livello B2 – Intermedio-avanzato
7 min
361 parole

I social network influenzano profondamente come le persone si informano e costruiscono relazioni. Offrono visibilità e sostegno, soprattutto a chi è emarginato, ma creano anche meccanismi che amplificano discorsi d’odio, disinformazione e danni tangibili nella vita reale. Esperti sottolineano che spesso la tecnologia aumenta sia i benefici sia i rischi.

A gennaio 2025 Meta ha annunciato la fine del programma di fact‑checking gestito da terze parti e l’adozione di un modello basato sulle “community notes”; ha inoltre eliminato alcune politiche a tutela degli utenti LGBTQ+. L’International Fact‑Checking Network ha definito la fine del programma di nove anni «un passo indietro», e l’Alto Commissario ONU Volker Türk ha avvertito che consentire discorsi d’odio online produce conseguenze nel mondo reale.

Prove empiriche mostrano come le scelte di design favoriscano l’engagement: un report trapelato di Facebook e studi accademici osservano che la viralità, le raccomandazioni e l’ottimizzazione per i clic aiutano la diffusione di contenuti nocivi; uno studio ha rilevato che il 15% degli utenti più assidui di Facebook era responsabile del 37% delle false headline condivise nello studio. Le smentite raramente raggiungono la stessa attenzione e, come scritto da First Draft News, «È molto, molto difficile rimuovere [la disinformazione] dal cervello».

In aggiunta, i sistemi di raccomandazione sono stati collegati a pattern di radicalizzazione: studi del 2021 hanno mostrato che l’algoritmo di TikTok poteva condurre spettatori verso contenuti della destra estrema; YouTube è stato descritto come un «motore di radicalizzazione» e sono emersi problemi anche su YouTube Kids. L’intelligenza artificiale generativa ha introdotto nuove minacce: le elezioni indonesiane del 2024 hanno evidenziato avatar digitali ampiamente usati, e un report di Freedom House del 2023 ha avvertito che i sistemi automatizzati rendono più facile distorcere la verità e più difficile riconoscerla. In paesi come il Venezuela messaggi pro‑governativi generati dall’AI convivono con minacce ai giornalisti e con l’uso di avatar per proteggere identità. Anche pagine ironiche come «Shrimp Jesus» possono erodere la fiducia e alimentare data broker, con conseguenze reali per truffe e operazioni di influenza.

In definitiva l’equilibrio tra vantaggi e rischi dipende dalle scelte di design delle piattaforme, dalle strutture di potere e da chi controlla gli strumenti tecnici.

Parole difficili

  • disinformazioneinformazioni false o fuorvianti diffuse online
  • emarginatopersona esclusa o isolata dalla società
  • sistema di raccomandazioneprogramma che suggerisce contenuti agli utenti
    sistemi di raccomandazione
  • algoritmoinsieme di regole usate dai computer
  • radicalizzazioneprocesso di avvicinamento a idee estremiste
  • viralitàcapacità di un contenuto di diffondersi molto
  • avatarrappresentazione digitale di una persona o identità
    avatar digitali
  • conseguenzaeffetto o risultato di un'azione o evento
    conseguenze

Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.

Domande di discussione

  • In che modo, secondo il testo, le scelte di design delle piattaforme influenzano l'equilibrio tra vantaggi e rischi?
  • Quali misure concrete potrebbero ridurre la diffusione della disinformazione senza eliminare la visibilità per persone emarginate?
  • Che rischi comportano l'uso di avatar e sistemi automatizzati nelle elezioni e nella sicurezza dei giornalisti?

Articoli correlati

Social network: informazione, comunità e rischi — Italiano Livello B2 | LingVo.club