Un team della Yale School of Management ha dimostrato che un'IA generativa scrive contenuti più affidabili quando apprende esplicitamente le ragioni per cui certi titoli sono efficaci. I ricercatori Tong Wang e K. Sudhir, con il pre-dottorando Hengguang Zhou, hanno lavorato su un dataset di 23.000 titoli che descrivono 4.500 articoli presi da Upworthy, una pubblicazione che aveva già condotto test A/B su quei titoli.
Il metodo usa un grande modello linguistico (LLM) che prima genera ipotesi concorrenti sul motivo per cui un titolo è più coinvolgente e poi le verifica sui dati per ottenere un insieme di spiegazioni validate. Un modello di valutazione pre-addestrato, basato sui risultati dei test A/B di Upworthy, ha misurato la qualità dei titoli durante la fase di valutazione. Infine l'LLM è stato messo a punto per privilegiare ragioni valide invece di indizi superficiali come parole sensazionalistiche.
Il gruppo ha testato il sistema con circa 150 persone; i titoli umani e quelli di IA standard sono stati scelti come migliori circa il 30% delle volte, mentre il nuovo modello è stato scelto nel 44% dei casi. I ricercatori sottolineano che l'approccio, ispirato al ragionamento scientifico (abduzione seguita da induzione), può essere applicato anche ad altri campi e a dati non testuali, per esempio audio o visivi, per creare sistemi più responsabili e utili.
Parole difficili
- affidabile — di cui ci si può fidareaffidabili
- apprendere — imparare o acquisire conoscenze nuoveapprende
- dataset — insieme organizzato di dati per analisi
- ipotesi — proposta da testare con dati
- pre-addestrato — già addestrato prima dell'uso su nuovi dati
- abduzione — ragionamento che propone spiegazioni possibili
- induzione — ragionamento che generalizza da esempi
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Perché spiegazioni validate potrebbero rendere i contenuti generati da IA più affidabili? Fai un esempio concreto.
- In che modo questo approccio (abduzione seguita da induzione) potrebbe essere applicato a dati audio o visivi nel tuo campo o nella vita quotidiana?
- Quali problemi etici o pratici potrebbero emergere se si usassero spiegazioni validate per generare contenuti destinati a un grande pubblico?
Articoli correlati
Perché i modelli faticano a moltiplicare numeri a quattro cifre
Una ricerca spiega che i modelli linguistici non conservano valori intermedi necessari per moltiplicare numeri a quattro cifre. Un metodo chiamato ICoT e un obiettivo di addestramento mirato migliorano molto i risultati.
AI per addestrare studenti di chirurgia alle suture
Ricercatori della Johns Hopkins hanno creato uno strumento di intelligenza artificiale che allena gli studenti di medicina nelle suture. L'AI fornisce feedback immediato confrontando i movimenti degli studenti con quelli degli esperti.
La Bielorussia apre indagini sul comico Komissarenko
Il Comitato d'Inchiesta bielorusso ha avviato procedimenti contro il comico Vyacheslav Komissarenko, accusato di diffamazione e insulti verso il presidente Alyaksandr Lukashenka. Komissarenko vive all'estero e il futuro legale è incerto.
La dieta con meno calorie migliora l'insulina nei muscoli dei ratti
La restrizione calorica nei ratti anziani modifica molte proteine muscolari e aumenta l'assorbimento di glucosio stimolato dall'insulina. I ricercatori trovano differenze molecolari tra maschi e femmine e identificano due proteine potenzialmente importanti.
Due studi sul raggruppamento degli studenti che apprendono l'inglese
Due studi valutano se mettere insieme gli studenti che apprendono l'inglese nelle stesse classi migliori i risultati. Uno trova effetti negativi per diploma e college; l'altro, nelle elementari, mostra risultati misti.