Uno studio pubblicato su PNAS Nexus esamina come risposte ordinarie di chatbot basati su grandi modelli linguistici possano influenzare opinioni sociali e politiche. Gli autori partono dall'ipotesi che bias latenti introdotti durante l'addestramento degli LLM possano imprimere piccole differenze nell'inquadratura delle narrazioni, anche quando le informazioni sono corrette.
Il lavoro, con primo autore Matthew Shu (Yale College, classe 2025) e autore senior Daniel Karell (Yale), ha testato due eventi del XX secolo: lo sciopero generale di Seattle, una sospensione del lavoro di cinque giorni nel febbraio 1919, e le proteste studentesche della Third World Liberation Front nel 1968. In totale 1.912 partecipanti hanno letto riassunti prodotti da GPT-4o, le voci corrispondenti di Wikipedia o riassunti creati dal team con uninquadratura liberale o conservatrice.
I risultati indicano che, rispetto a Wikipedia, i riassunti AI di default e quelli con inquadratura liberale tendevano a spingere opinioni verso posizioni piliberali, mentre i riassunti con inquadratura conservatrice produssero opinioni piconservatrici rispetto a Wikipedia. Gli autori sottolineano che lo spostamento liberale dei riassunti di default suggerisce l'esistenza di bias latenti negli LLM; gli effetti complessivi restano modesti, con uno spostamento limitato da posizioni moderate a posizioni leggermente pipiestreme.
Analisi aggiuntive mostrarono che la cornice liberale aumentava opinioni liberali in tutti i gruppi, mentre quella conservatrice aveva effetti statisticamente significativi solo tra i partecipanti che si identificavano come conservatori. Il team ipotizza che la cornice conservatrice derivi principalmente dal prompting, mentre la cornice liberale possa provenire sia da bias latenti sia dal prompting. Gli autori concludono che, poichlo sviluppo dei chatbot
Parole difficili
- latente — presente ma non immediatamente evidentelatenti
- inquadratura — modo di presentare o organizzare un raccontoinquadratura delle narrazioni, inquadratura liberale, inquadratura conservatrice
- riassunto — versione breve che riporta le informazioni principaliriassunti
- prompting — istruzioni date a un modello per ottenere risposte
- significativo — che mostra una differenza rilevante nei datistatisticamente significativi
- spostamento — cambiamento di posizione o opinione rispetto a primaspostamento liberale, spostamento limitato
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- In che modo la presenza di bias latenti negli LLM potrebbe influenzare l'informazione politica online? Fai riferimenti al testo.
- Perché, secondo gli autori, la cornice liberale potrebbe derivare sia da bias latenti sia dal prompting, mentre quella conservatrice principalmente dal prompting?
- Quali interventi pratici suggeriresti per ridurre l'influenza di inquadrature involontarie nei riassunti generati dall'intelligenza artificiale?
Articoli correlati
I grandi modelli linguistici e il dibattito sull'intelligenza artificiale
Dall'arrivo di ChatGPT nel novembre 2022 il dibattito pubblico sull'intelligenza artificiale è cambiato. L'articolo spiega effetti, legami con le grandi aziende, problemi di linguaggio e il richiamo degli esperti a più sicurezza e diritti.
Studio mostra come cambia l'attività del cervello durante il giorno
Nuovi metodi sperimentali e computazionali usati su topi rivelano, a singola cellula, uno spostamento dell'attività dal centro del cervello verso la corteccia nel corso del ciclo quotidiano. I ricercatori sperano di trovare firme della fatica adattabili anche a dati umani.