I grandi modelli linguistici e il dibattito sull'intelligenza artificialeCEFR A2
16 apr 2026
Adattato da Daria Dergacheva, Global Voices • CC BY 3.0
Foto di Brett Jordan, Unsplash
L'arrivo dei grandi modelli linguistici è iniziato quando OpenAI ha reso ChatGPT disponibile a miliardi di persone nel novembre 2022. Il tema resta centrale anche nel 2026 e la pubblicazione fa parte di una serie su questi argomenti.
L'AI generativa ha avuto effetti contrastanti: ha sconvolto l'istruzione, ha dato nuovi strumenti ai programmatori e in alcuni casi è stata usata in contesti di guerra. Molte aziende non hanno ancora modelli di business chiari e i dirigenti parlano spesso dell'AI in modo umano.
La descrizione tecnica crea confusione: si parla di "addestramento", "corpus" e "rete neurale" e gli errori vengono chiamati "allucinazioni" invece che sbagli statistici. Esperti suggeriscono di concentrarsi su sicurezza e diritti.
Parole difficili
- addestramento — processo per insegnare a un sistema informatico
- corpus — collezione di testi usata per analisi linguistica
- rete neurale — sistema informatico ispirato al cervello umano
- allucinazione — errore del modello che produce informazioni falseallucinazioni
- modello — programma o sistema che genera testi o rispostemodelli
- diritto — regola o libertà riconosciuta alle personediritti
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Hai mai usato ChatGPT o un altro strumento di AI? Com'è stata l'esperienza?
- Cosa pensi che le aziende dovrebbero fare per spiegare meglio l'uso dell'AI?
Articoli correlati
Dubioza kolektiv e il successo di "Balkan Boys"
La band bosniaca Dubioza kolektiv ha pubblicato il singolo "Balkan Boys" e il videoclip è diventato virale nei Balcani. Il brano satirico prende in giro stereotipi, compresa la teoria della Terra piatta, e la band ha posticipato l'uscita per solidarietà.
SEWA: nuovo sistema di allerta precoce per l'Africa
SEWA, un sistema di allerta precoce basato su satelliti, è stato lanciato a Windhoek durante un forum dal 23 al 27 giugno. Il progetto vuole rafforzare le allerte multi-rischio e migliorare l'accesso ai dati per governi e comunità.
Giornalisti chiedono aiuto contro le notizie false generate dall'AI
Rappresentanti dei media di paesi a basso e medio reddito hanno chiesto ai giornalisti cinesi aiuto al Belt and Road Journalists Forum per fermare le notizie false create dall'intelligenza artificiale e chiedere alle piattaforme di etichettare i contenuti.