Onderzoekers van de Yale School of Management (Tong Wang en K. Sudhir, met Hengguang Zhou) presenteren een methode waarmee een groot taalmodel (LLM) leert waarom bepaalde koppen meer engagement opleveren. Ze laten zien dat trainen op alleen winnende koppen clickbait kan bevorderen, omdat het model dan oppervlakkige signalen zoals sensationele woorden uitbuit in plaats van diepere verklaringen te vinden.
Het team liet het LLM concurrerende hypothesen genereren over waarom de ene kop beter werkt dan de andere en testte deze hypothesen systematisch op datasets. Uit die tests kwam een kleine set gevalideerde verklaringen. Daarna finetuneden ze het model zodat het koppen schrijft die engagement maximaliseren om de juiste redenen, een proces dat abductie (ideeën voorstellen) en inductie (testen op grotere steekproeven) reflecteert.
Ze gebruikten 23.000 koppen voor 4.500 Upworthy-artikelen en een voorgetraind beoordelingsmodel dat gebaseerd is op Upworthy's A/B-testresultaten. Menselijke beoordelaars (ongeveer 150) kozen tussen originele Upworthy-koppen, standaard door AI gegenereerde koppen en koppen van het nieuwe kader. Het nieuwe model werd 44% van de tijd geselecteerd, terwijl menselijke en standaard-AI-koppen elk ongeveer 30% kregen; analyse toonde dat standaard-AI meer op sensationele taal steunde.
De onderzoekers zeggen dat de aanpak vakoverschrijdende kennis kan genereren. Sudhir noemde werk om gepersonaliseerde AI-coaching voor klantenservicemedewerkers te maken, waarbij het systeem interacties kan beoordelen, hypothesen voorstelt en valideert, en advies geeft. Ze wijzen ook op mogelijkheden om niet-tekstuele input, zoals audio of visuele data, te gebruiken en concluderen dat kennisgestuurde AI zowel inhoud kan verbeteren als AI-systemen verantwoordelijker en betrouwbaarder kan maken.
Moeilijke woorden
- abductie — ideeën voorstellen als mogelijke verklaring
- inductie — verklaringen testen op grotere steekproeven
- finetunen — een model verder trainen voor betere prestatiesfinetuneden
- hypothese — voorlopig idee dat je kunt testenhypothesen
- valideren — controleren of iets betrouwbaar en juist isgevalideerde
- clickbait — kop die aandacht trekt met sensationele inhoud
- engagement — mate waarin lezers reageren of betrokken blijven
Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.
Discussievragen
- Welke risico's en voordelen zie je als nieuwsrooms modellen trainen op alleen klikrijke koppen? Geef twee voorbeelden.
- Hoe zou het beschreven kader kunnen helpen bij persoonlijke AI-coaching voor klantenservicemedewerkers? Noem mogelijke stappen.
- Welke overwegingen zijn belangrijk als men niet-tekstuele data (audio of visuele) wil gebruiken voor het verbeteren van content?
Gerelateerde artikelen
Nieuwe studie: brede bezorgdheid over Amerikaanse democratie
Een studie van het SNF Agora Institute (Johns Hopkins) en Public Agenda toont dat veel Amerikanen bezorgd zijn over de democratie. De onderzoekers gebruikten een peiling onder 4.500 Amerikanen, eerder onderzoek en drie Republikeinse focusgroepen.
Antilichaamtherapie verwijdert sporen van multiple myeloom
Vroege resultaten tonen dat linvoseltamab, een nieuw antilichaam, in een fase 2-proef resten van multiple myeloom kan weghalen. In de proef hadden alle patiënten die de behandeling afrondden geen aantoonbare ziekte; grotere studies zijn nodig.
Gen verlaagt achtergrondruis en verbetert aandacht bij muizen
Onderzoekers ontdekten dat variatie in het Homer1-gen de achtergrondactiviteit in de prefrontale cortex verlaagt en de aandacht verbetert bij muizen. Het werk, geleid door Priya Rajasethupathy, verschijnt in Nature Neuroscience.
Afrika bouwt regionaal beheer van gezondheidsonderzoek
Afrikaanse onderzoekers willen meer regionaal bestuur van gezondheidsonderzoek omdat hulp daalt en gezondheidsproblemen aanhouden. Ze tonen voorbeelden van lokale vaccinproductie en vragen financiering en beleid voor gezondheidssouvereiniteit.