Новое исследование Йельской школы менеджмента показывает: генеративный LLM, который учится не просто имитировать «победившие» заголовки, а объяснять, почему они работают, может создавать более вовлекающий и заслуживающий доверия контент. Авторы — Тонг Ван и К. Судхир при участии докторанта Хэнгуанга Чжоу — указывают на риск обучения только на «победителях»: модель начнёт эксплуатировать поверхностные сигналы, например сенсационные слова вроде «шокирующе», вместо понимания реальных причин кликов.
Исследователи разработали метод, близкий к научному рассуждению: сначала абдукция — LLM выдвигает несколько конкурирующих гипотез о том, почему один заголовок вовлекает больше, затем индукция — эти гипотезы проверяются на больших данных до появления валидационного набора верифицированных объяснений. После этого модель дообучают так, чтобы генерировать заголовки, максимизирующие вовлечение «по правильным причинам», а не за счёт эксплуатационных признаков.
В эксперименте использовали 23 000 заголовков, описывающих 4 500 статей от Upworthy; для оценки применяли предварительно обученную модель скоринга, основанную на результатах A/B-тестов. Система тестировали примерно на 150 человек, которым показывали три типа заголовков:
- оригинальные заголовки Upworthy,
- стандартные заголовки, сгенерированные ИИ,
- заголовки новой модели.
Человеческие и стандартные ИИ-заголовки выбирали лучшими примерно в 30% случаев; новая модель была выбрана в 44% случаев. Анализ показал, что стандартный ИИ сильнее опирался на сенсационные формулировки. Авторы утверждают, что подход может порождать знания в разных областях; Судхир отметил работу по созданию персонализированного ИИ-коучинга для агентов службы поддержки, где входные данные могут быть не только текстом, но и аудио или визуальной информацией. Исследователи заключают, что управляемый знаниями ИИ способен улучшать контент и делать системы более ответственными и заслуживающими доверия. Источник: Yale
Сложные слова
- генеративный — создающий новый текст на основе модели
- абдукция — логическое выдвижение гипотез для объяснения явления
- индукция — проверка гипотез на больших данных
- вовлекающий — привлекающий внимание и побуждающий к действию
- эксплуатационный — основанный на поверхностных, легко используемых признакахэксплуатационных
- дообучать — увеличивать навыки модели с помощью дополнительных данныхдообучают
- верифицированный — прошедший проверку и признанный достовернымверифицированных
Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.
Вопросы для обсуждения
- Как, по вашему мнению, метод абдукции и индукции помогает создавать более надёжные заголовки? Приведите одно-два возможных преимущества.
- Какие отрицательные последствия могут возникнуть, если ИИ будет полагаться на сенсационные формулировки для привлечения кликов?
- Как можно применить описанный подход для обучения ИИ в службе поддержки, если входные данные включают аудио и видео?
Похожие статьи
ИИ-чаты помогают молодёжи с репродуктивным здоровьем
В Латинской Америке проекты используют искусственный интеллект, чтобы давать молодым людям и маргинализированным группам информацию о сексуальном и репродуктивном здоровье. Некоторые платформы работают на кечуа и доступны через мессенджеры и веб.
Романтические фильмы и ожидания в отношениях
Две специалистки из Virginia Tech объясняют, как романтические фильмы формируют ожидания людей. Они обсуждают детские сказки, современные картины Hallmark, проблемы представления и то, почему идеализированная романтика может мешать реальным отношениям.