Un team della Yale School of Management ha dimostrato che un'IA generativa scrive contenuti più affidabili quando apprende esplicitamente le ragioni per cui certi titoli sono efficaci. I ricercatori Tong Wang e K. Sudhir, con il pre-dottorando Hengguang Zhou, hanno lavorato su un dataset di 23.000 titoli che descrivono 4.500 articoli presi da Upworthy, una pubblicazione che aveva già condotto test A/B su quei titoli.
Il metodo usa un grande modello linguistico (LLM) che prima genera ipotesi concorrenti sul motivo per cui un titolo è più coinvolgente e poi le verifica sui dati per ottenere un insieme di spiegazioni validate. Un modello di valutazione pre-addestrato, basato sui risultati dei test A/B di Upworthy, ha misurato la qualità dei titoli durante la fase di valutazione. Infine l'LLM è stato messo a punto per privilegiare ragioni valide invece di indizi superficiali come parole sensazionalistiche.
Il gruppo ha testato il sistema con circa 150 persone; i titoli umani e quelli di IA standard sono stati scelti come migliori circa il 30% delle volte, mentre il nuovo modello è stato scelto nel 44% dei casi. I ricercatori sottolineano che l'approccio, ispirato al ragionamento scientifico (abduzione seguita da induzione), può essere applicato anche ad altri campi e a dati non testuali, per esempio audio o visivi, per creare sistemi più responsabili e utili.
Parole difficili
- affidabile — di cui ci si può fidareaffidabili
- apprendere — imparare o acquisire conoscenze nuoveapprende
- dataset — insieme organizzato di dati per analisi
- ipotesi — proposta da testare con dati
- pre-addestrato — già addestrato prima dell'uso su nuovi dati
- abduzione — ragionamento che propone spiegazioni possibili
- induzione — ragionamento che generalizza da esempi
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Perché spiegazioni validate potrebbero rendere i contenuti generati da IA più affidabili? Fai un esempio concreto.
- In che modo questo approccio (abduzione seguita da induzione) potrebbe essere applicato a dati audio o visivi nel tuo campo o nella vita quotidiana?
- Quali problemi etici o pratici potrebbero emergere se si usassero spiegazioni validate per generare contenuti destinati a un grande pubblico?
Articoli correlati
Il clima minaccia le banane dell'America Latina
Un nuovo studio e testimonianze di produttori mostrano che il riscaldamento e le ondate di calore stanno riducendo le aree adatte alla produzione di banane da esportazione. Alcune aree sono già molto vulnerabili e servono misure di adattamento.
L'integrazione dei segnali nella retina
Uno studio pubblicato su Neuron mostra che i canali visivi nella retina si integrano tra loro invece di rimanere separati. I ricercatori di Yale hanno trovato connessioni elettriche e un tipo di cellula, BC6, che guida gran parte della segnalazione.