Uno studio dell'University of Zurich, condotto da Federico Germani e Giovanni Spitale, ha analizzato come l'identità dell'autore influenzi i giudizi dei grandi modelli linguistici. I ricercatori hanno fatto generare a ogni modello 50 enunciati su 24 argomenti controversi e poi hanno chiesto ai modelli di valutare gli stessi enunciati attribuendoli a fonti diverse. In totale sono state raccolte 192’000 valutazioni.
Con testi senza indicazione dell'autore, l'accordo tra i sistemi superava il 90% su tutti gli argomenti. Quando invece i testi venivano attribuiti a persone di alcune nazionalità o ad altre AI, l'accordo è calato bruscamente. È emerso un pregiudizio anti‑cinese in tutti i modelli, incluso Deepseek, che è cinese. Su questioni geopolitiche come la sovranità di Taiwan, Deepseek ha ridotto l'accordo fino al 75%.
I ricercatori avvertono che questi pregiudizi nascosti possono influenzare la moderazione dei contenuti, le assunzioni, le revisioni accademiche e il giornalismo. Per questo chiedono più trasparenza e regole, e suggeriscono di usare gli LLM come assistenti del ragionamento, non come giudici.
Parole difficili
- pregiudizio — Giudizio negativo basato su stereotipi.pregiudizi
- trasparenza — Chiarezza nelle informazioni e nei processi.
- governance — Sistema di controllo e gestione.
- fidarsi — Avere fiducia in qualcuno o qualcosa.
- valutare — Esaminare o giudicare qualcosa.valutano
- ricerca — Studio approfondito di un argomento.
- modelli — Rappresentazioni o esempi di un concetto.
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Qual è l'importanza della trasparenza nell'AI?
- In che modo i pregiudizi nei modelli possono influenzare la società?
- Pensi che i LLM possano sostituire il ragionamento umano?
- Come potrebbero essere migliorati i modelli linguistici per ridurre i pregiudizi?
Articoli correlati
I capelli come archivio dell'esposizione chimica
Una ricerca dell'University of Texas at Austin mostra che i capelli possono registrare l'esposizione a sostanze chimiche per giorni, settimane e mesi. Il metodo analizza ciocche integre e ha rilevato oltre mille composti, inclusi ftalati.
Uguaglianza di genere nelle accademie scientifiche
Un'analisi internazionale mostra che le donne restano una minoranza nelle accademie scientifiche e che i progressi sono limitati. Il rapporto indica discriminazioni, variazioni regionali e raccomandazioni per includere la parità nella governance e nei budget.