Ricercatori di Yale hanno esaminato se risposte normali dei chatbot possono cambiare opinioni politiche. Hanno confrontato riassunti generati dai chatbot, voci di Wikipedia e riassunti guidati con uninquadratura liberale o conservatrice.
I ricercatori hanno usato due eventi del XX secolo per i test. Rispetto a Wikipedia, i riassunti di default e quelli liberali hanno spinto opinioni piliberali. I riassunti conservatori hanno invece portato opinioni piconservatrici. Gli autori collegano questi risultati a bias latenti nei modelli linguistici e ad effetti del prompting. A loro avviso gli spostamenti sono modesti e lo sviluppo dei chatbot resta poco trasparente.
Parole difficili
- riassunto — testo breve che presenta le idee principaliriassunti
- inquadratura — modo di presentare un tema o un fatto
- latente — che è presente ma non evidentelatenti
- modello — programma o sistema che genera testimodelli
- spostamento — cambiamento dell'opinione o della posizionespostamenti
- trasparente — chiaro, facile da capire o vedere
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Pensi che riassunti guidati possano cambiare le tue opinioni? Perché?
- Leggeresti prima una voce di Wikipedia o un riassunto generato da un chatbot? Spiega brevemente.
- Ti sembra importante che lo sviluppo dei chatbot sia trasparente? Perché?
Articoli correlati
La nave Nansen annulla il rilievo nello Sri Lanka
La nave da ricerca norvegese Dr. Fridtjof Nansen ha cancellato il rilievo previsto nel 2025 nelle acque dello Sri Lanka per ritardi nell'approvazione governativa. La FAO ha riassegnato la nave al Madagascar e gli scienziati avvertono conseguenze per la ricerca marina.
Nuovo materiale che usa la luce per pulire l'acqua
Un team ha sviluppato un materiale che, attivato dalla luce, degrada vari inquinanti nell'acqua, incluse le PFAS. Il materiale è metal‑free, combina strutture porose con un film di nitruro di boro e ha mostrato stabilità nei test.
Perché l'intelligenza artificiale produce risultati ingiusti
Una ricerca dell'University of Texas at Austin indica che molti bias nell'intelligenza artificiale nascono perché i modelli non catturano la complessità del mondo reale. Lo studio individua tre fattori che aumentano il rischio di risultati ingiusti.