Выборы в Бангладеш и ложный контент с помощью ИИCEFR A2
1 апр. 2026 г.
Адаптировано по материалам Zulker Naeen, Global Voices • CC BY 3.0
Фото: Refat Ul Islam, Unsplash
В кампании перед выборами ИИ активно использовали для создания и изменения контента. 14 декабря 2025 в сети появилась фотография, где якобы был Шадик Каем рядом со стрелком по Осману Хади. Осман Хади был ранен в Дакке 11 декабря, а проверка FactWatch показала, что фото сгенерировано ИИ и ложное.
Исследование зафиксировало много случаев поддельного контента, включая фейковые цитаты и отредактированные фотокарты. Такие материалы вводили в заблуждение и имитировали работу доверенных СМИ.
Сложные слова
- контент — информация или материалы в интернете или СМИконтента
- проверка — действие для проверки правильности фактов
- сгенерировать — создать с помощью программы или компьютерасгенерировано
- ложный — неправильный, не соответствующий реальным фактамложное
- поддельный — сделанный для обмана, не настоящийподдельного
- имитировать — показать как будто это другое или настоящееимитировали
Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.
Вопросы для обсуждения
- Как вы думаете, как проверить, правда ли фотография в интернете?
- Встречали ли вы в соцсетях фейковые цитаты или изменённые фото? Расскажите коротко.
- Почему, по-вашему, поддельные материалы могут вводить людей в заблуждение?
Похожие статьи
Почему языковые модели ошибаются при умножении четырёхзначных чисел
Новое исследование показало, что современные большие языковые модели плохо умножают четырёхзначные числа, потому что не хранят и не используют промежуточные результаты. Метод ICoT и дополнительные цели обучения помогают моделям запоминать шаги и давать правильный ответ.