LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
I grandi modelli linguistici e il dibattito sull'intelligenza artificiale — Livello B2 — puppet using tablet

I grandi modelli linguistici e il dibattito sull'intelligenza artificialeCEFR B2

16 apr 2026

Adattato da Daria Dergacheva, Global Voices CC BY 3.0

Foto di Brett Jordan, Unsplash

Livello B2 – Intermedio-avanzato
6 min
351 parole

L'arrivo dei grandi modelli linguistici, segnato dalla diffusione di ChatGPT dopo novembre 2022, ha ridefinito il dibattito pubblico sull'intelligenza artificiale e resta un tema centrale nel 2026. La pubblicazione fa parte della serie «Non chiedere all'IA, chiedi a un pari», una collaborazione tra Global Voices, Association for Progressive Communication e GenderIT.

L'AI generativa ha prodotto effetti contrastanti: ha sconvolto l'istruzione, ha offerto nuovi strumenti a molti programmatori ed è stata impiegata in contesti di guerra. Molte aziende del settore non hanno ancora modelli di business redditizi. Alcune grandi imprese sono direttamente coinvolte nello sviluppo: Google con Gemini; Microsoft ha investito in Anthropic e in OpenAI; Meta possiede Llama; Elon Musk ha comprato e poi cancellato Twitter e offre Grok; Jeff Bezos ha investito in sette aziende tra cui Perplexity AI e la startup olandese Toloka.

Una parte della confusione pubblica deriva dal linguaggio usato dalle aziende: termini come "addestrato", "corpus", "rete neurale" e "linguaggio naturale" creano aspettative antropomorfe. Gli errori dei modelli sono stati etichettati come "allucinazioni", mentre molti ricercatori li considerano sbagli statistici; alcuni stimano un tasso di errore del 25–30 percento. Questo linguaggio e l'hype rendono i sistemi difficili da capire e controllare.

Anthropic ha pubblicato La Costituzione di Claude, contenente passaggi come: «Incoraggiamo Claude ad avvicinarsi alla propria esistenza con curiosità e apertura, piuttosto che cercare di mappare questa esistenza alla lente degli esseri umani o a concezioni precedenti dell'AI». La giurista Luisa Jarovsky ha avvertito che tale inquadramento può attribuire all'AI uno status morale o legale indebito, mentre la filosofa di Anthropic Dr. Amanda Askell ha dichiarato di star «costruendo la personalità di Claude». Ricercatori come Caleb Sponheim osservano che i sistemi producono «cortesia inutile» e linguaggio antropomorfizzante. Emily Bender e Nanna Inie ricordano: «L'AI non è la tua amica... Non può ‘inventare’ fatti e non compie ‘errori’ nel senso umano». Giornalisti e decisori politici dovrebbero evitare il marketing aziendale e concentrarsi su sicurezza, diritti, creatività e connessione umana. Daria Dergacheva è ricercatrice ed editor specializzata nella governance delle piattaforme e dell'AI; Ibrahim Kizza è artista visivo e illustratore che lavora sulla connessione umana e sull'identità.

Parole difficili

  • addestrareinsegnare a un sistema a svolgere compiti
    addestrato
  • corpusraccolta di testi usata per l'addestramento
  • rete neuralemodello informatico ispirato al cervello umano
  • allucinazionerisposta falsa o imprecisa generata dal sistema
    allucinazioni
  • antropomorfoattribuire caratteristiche umane a cose non umane
    antropomorfe
  • generativoche crea contenuti nuovi a partire dai dati
    generativa

Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.

Domande di discussione

  • In che modo il linguaggio antropomorfizzante delle aziende può influenzare le aspettative del pubblico sull'AI?
  • Quali priorità suggeriresti a giornalisti e decisori per affrontare i rischi e la confusione legati all'AI, e perché?
  • Considerando gli usi dell'AI nell'istruzione e nei contesti di guerra menzionati nel testo, quali rischi e benefici vedi per la società?

Articoli correlati