Des chercheurs de la Yale School of Management — Tong Wang, K. Sudhir et l'associé de recherche pré-doctoral Hengguang Zhou — proposent un cadre où un grand modèle de langage (LLM) n'apprend pas seulement quels titres fonctionnent, mais pourquoi ils fonctionnent. Ils rappellent qu'entraîner un modèle uniquement sur les titres gagnants peut conduire à l'exploitation d'indices superficiels et au langage sensationnaliste plutôt qu'à la découverte de véritables motifs d'engagement.
La méthode demande au LLM de générer des hypothèses concurrentes expliquant la supériorité d'un titre, puis de tester ces hypothèses sur les données A/B jusqu'à faire émerger un petit ensemble d'explications validées. Les auteurs ont utilisé 23,000 titres issus de 4,500 articles d'Upworthy et un modèle de score pré-entraîné, fondé sur les résultats A/B d'Upworthy, pour mesurer la qualité des titres pendant l'évaluation.
Après extraction des explications validées, le LLM a été affiné pour rédiger des titres qui maximisent l'engagement pour de bonnes raisons. Dans un test auprès d'environ 150 personnes, le nouveau modèle a été choisi 44% du temps, tandis que les titres humains et ceux d'une IA standard l'ont été à peu près 30% du temps. L'analyse montre que l'IA standard s'appuyait davantage sur un langage sensationnaliste.
Les chercheurs indiquent que cette démarche peut générer des connaissances transférables, par exemple pour créer un coaching IA personnalisé en service client capable d'analyser interactions et données audio ou visuelles. Ils concluent qu'une IA guidée par la connaissance peut améliorer le contenu tout en rendant les systèmes d'IA plus responsables et plus fiables. Source : Yale
Mots difficiles
- cadre — structure ou contexte pour organiser une étude ou action
- exploitation — utilisation d'informations ou de ressources pour profitl'exploitation
- indice — signe ou élément qui suggère une explicationindices
- sensationnaliste — qui exagère pour attirer l'attention
- hypothèse — une idée proposée pour expliquer un phénomènehypothèses
- valider — confirmer qu'une proposition est correctevalidées
- affiner — rendre quelque chose plus précis ou meilleuraffiné
- transférable — qui peut être utilisé ou appliqué ailleurstransférables
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Quels sont, selon vous, les risques si un modèle apprend seulement quels titres fonctionnent sans comprendre pourquoi ? Donnez des exemples concrets.
- Pensez-vous que les explications validées par A/B peuvent s'appliquer à d'autres domaines (par ex. service client) ? Pourquoi ou pourquoi pas ?
- Comment une IA guidée par la connaissance pourrait-elle rendre les systèmes d'IA plus responsables et plus fiables dans la pratique ? Donnez deux idées.
Articles liés
Vidéos virales et rénovation à Addis Ababa
Une vidéo du cortège du président à Addis Ababa est devenue virale après sa visite du 17 février. Les images montrent des rues rénovées; le projet urbain suscite à la fois admiration en ligne et critiques sur les expulsions et les priorités.
L'IA pour informer sur la santé sexuelle en Amérique latine
Des groupes et chercheurs au Pérou et en Argentine utilisent l'intelligence artificielle pour élargir l'accès à l'information sur la santé sexuelle et reproductive, en réduisant les barrières de langue, de stigmatisation et de disponibilité des services.