Активисты в Эквадоре используют технологии против дезинформацииCEFR B2
28 мар. 2025 г.
Адаптировано по материалам Melissa Vida, Global Voices • CC BY 3.0
Фото: Hartono Creative Studio, Unsplash
В Эквадоре группа активистов возродила местную ячейку Hacks Hackers с целью противостоять электоральной дезинформации при помощи технологий. Инициатива выросла из разговоров Ивана Терсероса, сооснователя Openlab, с журналистом и консультантом по коммуникациям; после нескольких событий в 2021 году в начале 2024 года было принято решение провести более масштабную активность перед вторым туром президентских выборов.
19 февраля в Simon Bolivar Andean University прошла конференция «Искусственный интеллект и дезинформация во время выборов». Среди выступающих называли Хорхе Круз Сильва (Observatory of Communication, PUCE), Лусиана Муселло (Universidad San Francisco de Quito) и Дангелли Сунига (Universidad del Rosario). Панелисты обсуждали, как ИИ, боты и организованные сети усиливают распространение фейков и в каких случаях дезинформация функционирует как структурированный бизнес, а не как единичные акции.
22–23 февраля на базе PUCE прошёл хакатон «Гражданские технологии для информированных решений». Около 60 участников — разработчики, специалисты по данным, журналисты и исследователи — работали над тремя задачами: автоматизированная проверка фактов с помощью ИИ, прозрачность финансирования кампаний и анализ цифровых нарративов. В финале три команды получили призы и менторскую поддержку и продолжили работу над прототипами.
Победители представили свои проекты 19 марта в PUCE. Среди проектов были:
- Goddard — сайт на базе ИИ для анализа эквадорских СМИ, обнаружения проявлений ненависти, оценки тональности и выдачи оповещений с объяснениями для повышения медийной грамотности.
- VeritasAI — геореференцированная система сообщений, где граждане анонимно фиксируют избирательные нарушения с мультимедийными доказательствами и видят данные на интерактивной карте в реальном времени.
- PillMind — платформа, использующая ИИ для перевода технических политических обещаний на простой язык, их верификации и контекстуализации с экономической, социальной и исторической точек зрения.
Три победившие команды получили по USD 1,200 и специализированное менторство. Мероприятия поддержали Hacks Hackers Latam, Openlab, Unesco и Communication Observatory of the PUCE. Организаторы отмечают, что следующие шаги включают доработку прототипов после хакатона и продолжение активности в течение 2025 года для создания инструментов и площадок для обсуждения вопросов дезинформации.
Сложные слова
- дезинформация — ложная или вводящая в заблуждение информациядезинформации
- искусственный интеллект — компьютерные системы, которые решают сложные задачи автоматически
- бот — программа, автоматически выполняющая задачи в сетиботы
- фейк — ложное сообщение, созданное для обмана людейфейков
- геореференцированный — связанный с конкретным местом на картегеореференцированная
- прототип — первая версия продукта для проверки идеипрототипами
- верификация — проверка достоверности фактов или данныхверификации
- менторство — помощь и совет от опытного специалистаменторскую
- медийная грамотность — умение критически понимать и оценивать СМИмедийной грамотности
- прозрачность — открытость и ясность в финансовых или других данных
Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.
Вопросы для обсуждения
- Какие преимущества и риски вы видите в использовании ИИ для автоматизированной проверки фактов во время выборов?
- Как проекты типа Goddard, VeritasAI и PillMind могут повлиять на работу журналистов и на медийную грамотность граждан?
- Какие шаги, на ваш взгляд, важны для успешной доработки прототипов после хакатона?
Похожие статьи
Отключение интернета в Иране во время протестов
В конце декабря 2025 в Тегеране начались столкновения, которые затем охватили более 30 провинций. Власти полностью отключили интернет 8 января 2026; частичный доступ вернулся 23 января, после чего появились записи и свидетельства насилия.
Анализ соцсетей как раннее предупреждение о перемещениях людей
Учёные показали, что сообщения в социальных сетях могут давать ранние сигналы о перемещениях людей во время конфликтов и бедствий. Исследование в EPJ Data Science анализирует почти 2 миллиона публикаций и три случая перемещений.