Esploristoj ĉe Yale montris, ke generativa AI povas verki pli allogajn kaj pli fidindajn titolojn se ĝi lernas la kialojn, kial titoloj funkcias. Ili studis oftan interretan praktikon nomatan A/B‑testo, kie du titoloj estas montrataj al malsamaj legantoj por vidi, kiu ricevas pli da alklakoj.
Anstataŭ nur kopi troviĝintajn venkantojn, la teamo instruis lingvomodelon proponi konkurantajn hipotezojn pri kial titolo estas engaĝiga kaj poste testis tiujn hipotezojn per datumoj ĝis restis validigitaj klarigoj. Poste la modelo estis fajneĝustigita por verki titolojn por la ĝustaj kialoj.
En homa taksado la nova kadro estis elektita pli ofte ol normaj AI‑titoloj. La esploristoj ankaŭ vidas eblajn uzojn en klienta servado kaj prifaxas, ke enigoj povas inkludi aŭdon aŭ bildojn.
Malfacilaj vortoj
- generativa — AI kiu kreas novan tekston aŭ enhavon
- A/B‑testo — praktiko montri du versiojn al malsamaj legantoj
- lingvomodelo — komputila programo por generi kaj analizi lingvonlingvomodelon
- hipotezo — simpla klarigo aŭ ideo por testi per datumojhipotezojn
- fajneĝustigi — ŝanĝi programon precize por plibonigi ĝian funkcionfajneĝustigita
- validigi — montri ke klarigo aŭ rezulto estas korekta per datumojvalidigitaj
Konsilo: ŝovu la musmontrilon, fokusu aŭ tuŝu la reliefigitajn vortojn en la artikolo por vidi rapidajn difinojn dum legado aŭ aŭskultado.
Diskutaj demandoj
- Ĉu vi pensas, ke pli bonaj titoloj igas vin alklaki artikolon? Kial?
- La esploristoj mencias klientan servadon kaj enigojn kun aŭdo aŭ bildoj. Kiel vi uzus tiun ideon en via laboro aŭ studado?
Rilataj artikoloj
Kiel generativa AI ŝanĝas eksterlandajn malinformkampanjojn
Intervjuo publikigita la 12an de novembro 2025 ĉe Antidisinfo.net kaj reeldonita kun Global Voices kaj Metamorphosis Foundation klarigas kiel generativa AI akcelas malinformon. Laura Jasper (HCSS) priskribas riskojn kaj rekomendas metodojn por analizi kaj respondi.