Выборы в Бангладеш и ложный контент с помощью ИИCEFR B1
1 апр. 2026 г.
Адаптировано по материалам Zulker Naeen, Global Voices • CC BY 3.0
Фото: Refat Ul Islam, Unsplash
Национальные выборы 12 февраля прошли на фоне широкой кампании с использованием синтетического контента. В декабре 2025 появилась фальшивая фотография с участием Шадика Каема и человека, которого связывали со стрельбой по Осману Хади; фактчекинг показал, что изображение создано с помощью ИИ.
Исследование, опубликованное в ходе кампании, зафиксировало 72 случая контента, созданного или изменённого ИИ. Почти половина таких манипуляций создавала полностью вымышленные действия или высказывания, а многие материалы приписывали политикам ложные цитаты через отредактированные фотокарты.
Поддельные изображения и дипфейки охватывали разных лидеров, а подложные цитаты и имитации логотипов доверенных СМИ повышали их видимую достоверность. Наблюдатели отмечают новые тактики и неясность в вопросе регулирования таких угроз.
Сложные слова
- синтетический контент — контент, созданный с помощью искусственного интеллектасинтетического контента
- фальшивая фотография — изображение, которое не соответствует реальности
- фактчекинг — проверка правдивости фактов и материалов
- ИИ — компьютерные системы, которые имитируют ум человека
- манипуляция — действие для скрытого влияния на мнение людейманипуляций
- дипфейк — поддельное видео или аудио, созданное с помощью ИИдипфейки
- достоверность — уровень правдивости или надежности информации
- регулирование — правила и законы для контроля деятельностирегулирования
Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.
Вопросы для обсуждения
- Какие проблемы создаёт синтетический контент для выборов?
- Какие способы обнаружения фальшивых материалов упоминаются в тексте?
- Почему, по тексту, наблюдатели отмечают неясность в вопросе регулирования таких угроз?
Похожие статьи
Почему языковые модели ошибаются при умножении четырёхзначных чисел
Новое исследование показало, что современные большие языковые модели плохо умножают четырёхзначные числа, потому что не хранят и не используют промежуточные результаты. Метод ICoT и дополнительные цели обучения помогают моделям запоминать шаги и давать правильный ответ.