Активисты в Эквадоре используют технологии против дезинформацииCEFR B2
28 мар. 2025 г.
Адаптировано по материалам Melissa Vida, Global Voices • CC BY 3.0
Фото: Hartono Creative Studio, Unsplash
В Эквадоре группа активистов возродила местную ячейку Hacks Hackers с целью противостоять электоральной дезинформации при помощи технологий. Инициатива выросла из разговоров Ивана Терсероса, сооснователя Openlab, с журналистом и консультантом по коммуникациям; после нескольких событий в 2021 году в начале 2024 года было принято решение провести более масштабную активность перед вторым туром президентских выборов.
19 февраля в Simon Bolivar Andean University прошла конференция «Искусственный интеллект и дезинформация во время выборов». Среди выступающих называли Хорхе Круз Сильва (Observatory of Communication, PUCE), Лусиана Муселло (Universidad San Francisco de Quito) и Дангелли Сунига (Universidad del Rosario). Панелисты обсуждали, как ИИ, боты и организованные сети усиливают распространение фейков и в каких случаях дезинформация функционирует как структурированный бизнес, а не как единичные акции.
22–23 февраля на базе PUCE прошёл хакатон «Гражданские технологии для информированных решений». Около 60 участников — разработчики, специалисты по данным, журналисты и исследователи — работали над тремя задачами: автоматизированная проверка фактов с помощью ИИ, прозрачность финансирования кампаний и анализ цифровых нарративов. В финале три команды получили призы и менторскую поддержку и продолжили работу над прототипами.
Победители представили свои проекты 19 марта в PUCE. Среди проектов были:
- Goddard — сайт на базе ИИ для анализа эквадорских СМИ, обнаружения проявлений ненависти, оценки тональности и выдачи оповещений с объяснениями для повышения медийной грамотности.
- VeritasAI — геореференцированная система сообщений, где граждане анонимно фиксируют избирательные нарушения с мультимедийными доказательствами и видят данные на интерактивной карте в реальном времени.
- PillMind — платформа, использующая ИИ для перевода технических политических обещаний на простой язык, их верификации и контекстуализации с экономической, социальной и исторической точек зрения.
Три победившие команды получили по USD 1,200 и специализированное менторство. Мероприятия поддержали Hacks Hackers Latam, Openlab, Unesco и Communication Observatory of the PUCE. Организаторы отмечают, что следующие шаги включают доработку прототипов после хакатона и продолжение активности в течение 2025 года для создания инструментов и площадок для обсуждения вопросов дезинформации.
Сложные слова
- дезинформация — ложная или вводящая в заблуждение информациядезинформации
- искусственный интеллект — компьютерные системы, которые решают сложные задачи автоматически
- бот — программа, автоматически выполняющая задачи в сетиботы
- фейк — ложное сообщение, созданное для обмана людейфейков
- геореференцированный — связанный с конкретным местом на картегеореференцированная
- прототип — первая версия продукта для проверки идеипрототипами
- верификация — проверка достоверности фактов или данныхверификации
- менторство — помощь и совет от опытного специалистаменторскую
- медийная грамотность — умение критически понимать и оценивать СМИмедийной грамотности
- прозрачность — открытость и ясность в финансовых или других данных
Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.
Вопросы для обсуждения
- Какие преимущества и риски вы видите в использовании ИИ для автоматизированной проверки фактов во время выборов?
- Как проекты типа Goddard, VeritasAI и PillMind могут повлиять на работу журналистов и на медийную грамотность граждан?
- Какие шаги, на ваш взгляд, важны для успешной доработки прототипов после хакатона?
Похожие статьи
Новая неинвазивная технология измеряет вязкость крови
Исследователи из Университета Миссури разработали устройство, которое в реальном времени контролирует вязкость крови с помощью ультразвука и программного обеспечения. Технология не требует забора крови и может помочь при болезнях и в клинике.
Почему языковые модели ошибаются при умножении четырёхзначных чисел
Новое исследование показало, что современные большие языковые модели плохо умножают четырёхзначные числа, потому что не хранят и не используют промежуточные результаты. Метод ICoT и дополнительные цели обучения помогают моделям запоминать шаги и давать правильный ответ.