I grandi modelli linguistici e il dibattito sull'intelligenza artificialeCEFR B2
16 apr 2026
Adattato da Daria Dergacheva, Global Voices • CC BY 3.0
Foto di Brett Jordan, Unsplash
L'arrivo dei grandi modelli linguistici, segnato dalla diffusione di ChatGPT dopo novembre 2022, ha ridefinito il dibattito pubblico sull'intelligenza artificiale e resta un tema centrale nel 2026. La pubblicazione fa parte della serie «Non chiedere all'IA, chiedi a un pari», una collaborazione tra Global Voices, Association for Progressive Communication e GenderIT.
L'AI generativa ha prodotto effetti contrastanti: ha sconvolto l'istruzione, ha offerto nuovi strumenti a molti programmatori ed è stata impiegata in contesti di guerra. Molte aziende del settore non hanno ancora modelli di business redditizi. Alcune grandi imprese sono direttamente coinvolte nello sviluppo: Google con Gemini; Microsoft ha investito in Anthropic e in OpenAI; Meta possiede Llama; Elon Musk ha comprato e poi cancellato Twitter e offre Grok; Jeff Bezos ha investito in sette aziende tra cui Perplexity AI e la startup olandese Toloka.
Una parte della confusione pubblica deriva dal linguaggio usato dalle aziende: termini come "addestrato", "corpus", "rete neurale" e "linguaggio naturale" creano aspettative antropomorfe. Gli errori dei modelli sono stati etichettati come "allucinazioni", mentre molti ricercatori li considerano sbagli statistici; alcuni stimano un tasso di errore del 25–30 percento. Questo linguaggio e l'hype rendono i sistemi difficili da capire e controllare.
Anthropic ha pubblicato La Costituzione di Claude, contenente passaggi come: «Incoraggiamo Claude ad avvicinarsi alla propria esistenza con curiosità e apertura, piuttosto che cercare di mappare questa esistenza alla lente degli esseri umani o a concezioni precedenti dell'AI». La giurista Luisa Jarovsky ha avvertito che tale inquadramento può attribuire all'AI uno status morale o legale indebito, mentre la filosofa di Anthropic Dr. Amanda Askell ha dichiarato di star «costruendo la personalità di Claude». Ricercatori come Caleb Sponheim osservano che i sistemi producono «cortesia inutile» e linguaggio antropomorfizzante. Emily Bender e Nanna Inie ricordano: «L'AI non è la tua amica... Non può ‘inventare’ fatti e non compie ‘errori’ nel senso umano». Giornalisti e decisori politici dovrebbero evitare il marketing aziendale e concentrarsi su sicurezza, diritti, creatività e connessione umana. Daria Dergacheva è ricercatrice ed editor specializzata nella governance delle piattaforme e dell'AI; Ibrahim Kizza è artista visivo e illustratore che lavora sulla connessione umana e sull'identità.
Parole difficili
- addestrare — insegnare a un sistema a svolgere compitiaddestrato
- corpus — raccolta di testi usata per l'addestramento
- rete neurale — modello informatico ispirato al cervello umano
- allucinazione — risposta falsa o imprecisa generata dal sistemaallucinazioni
- antropomorfo — attribuire caratteristiche umane a cose non umaneantropomorfe
- generativo — che crea contenuti nuovi a partire dai datigenerativa
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- In che modo il linguaggio antropomorfizzante delle aziende può influenzare le aspettative del pubblico sull'AI?
- Quali priorità suggeriresti a giornalisti e decisori per affrontare i rischi e la confusione legati all'AI, e perché?
- Considerando gli usi dell'AI nell'istruzione e nei contesti di guerra menzionati nel testo, quali rischi e benefici vedi per la società?
Articoli correlati
Giochi al computer migliorano il cervello dopo una lesione
Una ricerca trova che persone con lesioni cerebrali traumatiche possono migliorare la struttura del cervello e le capacità cognitive giocando a esercizi cognitivi al computer. Lo studio ha rilevato cambiamenti nella neuroplasticità e miglioramenti nei test di velocità, attenzione e memoria.
Ricerca: vulnerabilità nei gestori di password cloud
Ricercatori dell'ETH Zurich hanno testato Bitwarden, Lastpass e Dashlane e trovato vulnerabilità che permettono attacchi quando un server è compromesso. Suggeriscono aggiornamenti, audit esterni e crittografia end-to-end per gli utenti.
Tagli agli aiuti e rischio per i servizi sanitari nel 2025
Nel 2025 grandi tagli agli aiuti internazionali hanno ridotto servizi sanitari e umanitari in molti paesi a basso e medio reddito. La sospensione di fondi da parte degli USA e tagli di altri paesi hanno causato interruzioni immediate e vulnerabilità diffuse.