Un team della Yale School of Management ha dimostrato che un'IA generativa scrive contenuti più affidabili quando apprende esplicitamente le ragioni per cui certi titoli sono efficaci. I ricercatori Tong Wang e K. Sudhir, con il pre-dottorando Hengguang Zhou, hanno lavorato su un dataset di 23.000 titoli che descrivono 4.500 articoli presi da Upworthy, una pubblicazione che aveva già condotto test A/B su quei titoli.
Il metodo usa un grande modello linguistico (LLM) che prima genera ipotesi concorrenti sul motivo per cui un titolo è più coinvolgente e poi le verifica sui dati per ottenere un insieme di spiegazioni validate. Un modello di valutazione pre-addestrato, basato sui risultati dei test A/B di Upworthy, ha misurato la qualità dei titoli durante la fase di valutazione. Infine l'LLM è stato messo a punto per privilegiare ragioni valide invece di indizi superficiali come parole sensazionalistiche.
Il gruppo ha testato il sistema con circa 150 persone; i titoli umani e quelli di IA standard sono stati scelti come migliori circa il 30% delle volte, mentre il nuovo modello è stato scelto nel 44% dei casi. I ricercatori sottolineano che l'approccio, ispirato al ragionamento scientifico (abduzione seguita da induzione), può essere applicato anche ad altri campi e a dati non testuali, per esempio audio o visivi, per creare sistemi più responsabili e utili.
Parole difficili
- affidabile — di cui ci si può fidareaffidabili
- apprendere — imparare o acquisire conoscenze nuoveapprende
- dataset — insieme organizzato di dati per analisi
- ipotesi — proposta da testare con dati
- pre-addestrato — già addestrato prima dell'uso su nuovi dati
- abduzione — ragionamento che propone spiegazioni possibili
- induzione — ragionamento che generalizza da esempi
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Perché spiegazioni validate potrebbero rendere i contenuti generati da IA più affidabili? Fai un esempio concreto.
- In che modo questo approccio (abduzione seguita da induzione) potrebbe essere applicato a dati audio o visivi nel tuo campo o nella vita quotidiana?
- Quali problemi etici o pratici potrebbero emergere se si usassero spiegazioni validate per generare contenuti destinati a un grande pubblico?
Articoli correlati
GLO1 aiuta il cervello a resistere al danno da calcio
Ricercatori della Yale School of Medicine hanno studiato come la proteina GLO1 aumenta quando c’è troppo calcio nelle cellule. L’attività di GLO1 cala con l’età e questo può ridurre la protezione del cervello e la memoria nei topi.
Giornalisti chiedono aiuto contro le notizie false generate dall'AI
Rappresentanti dei media di paesi a basso e medio reddito hanno chiesto ai giornalisti cinesi aiuto al Belt and Road Journalists Forum per fermare le notizie false create dall'intelligenza artificiale e chiedere alle piattaforme di etichettare i contenuti.
Due tipi di microglia controllano l'ansia nei topi
Ricercatori della University of Utah hanno scoperto due popolazioni di microglia che nei topi hanno effetti opposti sull'ansia. I risultati, pubblicati su Molecular Psychiatry, suggeriscono nuove possibili vie terapeutiche, ma le cure cliniche non sono imminenti.
I modelli linguistici cambiano giudizio se conoscono l'autore
Ricercatori dell'University of Zurich mostrano che i grandi modelli linguistici valutano diversamente lo stesso testo quando viene indicata l'identità dell'autore. Lo studio rileva pregiudizi nascosti, incluso un forte bias anti‑cinese.