LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
Социальные сети, дезинформация и новые риски — Уровень B2 — a group of different social media logos

Социальные сети, дезинформация и новые рискиCEFR B2

10 нояб. 2025 г.

Уровень B2 – выше среднего
7 мин
404 слов

Социальные сети всё сильнее влияют на то, как люди находят информацию и создают сообщества. Платформы дают доступ к поддержке и связям для многих маргинализованных групп, но одновременно они могут распространять язык вражды, ложь и приводить к вреду в реальном мире. Эксперты отмечают, что технологии часто усиливают и пользу, и риск одновременно.

В январе 2025 года Марк Цукерберг объявил, что Meta завершит программу независимой проверки фактов и перейдёт на модель «community notes», похожую на ту, что использовала платформа X. Компания также сообщила о прекращении некоторых правил, защищавших пользователей LGBTQ+. International Fact-Checking Network назвала окончание девятилетней программы «шагом назад». Верховный комиссар ООН по правам человека Фолькер Тюрк предупредил: «Допускать в сети разжигание ненависти и вредный контент имеет реальные последствия в реальном мире.»

Исследователи указывают на особенности дизайна платформ, которые вознаграждают клики и вовлечённость. Одно исследование показало, что 15% наиболее привычных пользователей Facebook были ответственны за 37% ложных заголовков, поделившихся в исследовании. Утёкший отчёт Facebook 2019 года утверждал, что вирусность, рекомендации и оптимизация под вовлечённость помогают расцветать языку вражды и дезинформации. Исправления и уточнения редко получают такое же внимание, как первоначальные ложные утверждения; как писал First Draft News, «Очень, очень трудно вытеснить [дезинформацию] из головы.»

Системы рекомендаций связывают с радикализацией: в 2021 году исследование показало, что алгоритм TikTok может переводить зрителей от трансфобных видео к насильственному правому контенту. YouTube называли «двигателем радикализации», а отдельные отчёты говорили о направлении детей в YouTube Kids к контенту о расстройствах пищевого поведения. Перед выборами в Германии 2025 года исследователи заметили сдвиг лент в правую сторону, особенно на TikTok.

Появление генеративного ИИ и автоматических систем добавляет новые риски. На выборах в Индонезии в 2024 году использовались созданные ИИ цифровые аватары; бывший кандидат Prabowo Subianto широко применял такой аватар в социальных сетях. Генеративные инструменты, включая чат‑боты вроде ChatGPT, создают реалистичные тексты и изображения, которые искажают правду. В отчёте Freedom House 2023 года предупреждалось, что автоматические системы дают более точные средства цензуры и что «распространители дезинформации используют сгенерированные ИИ изображения, аудио и тексты, что облегчает искажение правды и затрудняет её распознавание.»

В Венесуэле сообщения, созданные ИИ в поддержку власти, сосуществуют с угрозами журналистам; некоторые журналисты используют цифровые аватары, чтобы защитить свою личность. Небольшие или шутливые страницы, например «Shrimp Jesus», подрывают доверие и кормят брокеров данных, что имеет реальные последствия для мошенничества и операций по влиянию. В целом технологии могут давать власть и защиту, но их также можно использовать во вред; баланс зависит от дизайнерских решений, структур власти и того, кто контролирует инструменты.

Сложные слова

  • маргинализованныйнаходящийся в социальной периферии, без власти
    маргинализованных
  • дезинформацияложная информация, вводящая людей в заблуждение
    дезинформации
  • вовлечённостьуровень реакции и участия пользователей в контенте
  • радикализацияпроцесс перехода к экстремальным или насильственным идеям
    радикализацией
  • генеративныйсоздающий автоматически новые тексты и изображения
    генеративного, Генеративные
  • аватарцифровое изображение или представление человека в сети
    аватары

Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.

Вопросы для обсуждения

  • Как, по‑вашему, платформы могут сохранять поддержку маргинализованных групп, но одновременно уменьшать распространение языка вражды? Предложите два возможных подхода.
  • Какие конкретные риски для выборов и общественного доверия создают генеративные ИИ и цифровые аватары? Приведите примеры из текста.
  • Как дизайн алгоритмов и то, кто контролирует инструменты, влияет на баланс пользы и вреда технологий? Объясните с опорой на статью.

Похожие статьи

Dubioza Kolektiv выпустила «Yebiga» о рисках ИИ — Уровень B2
26 апр. 2026 г.

Dubioza Kolektiv выпустила «Yebiga» о рисках ИИ

Боснийская группа Dubioza Kolektiv представила песню «Yebiga», которая сатирически критикует растущую зависимость общества от искусственного интеллекта и алгоритмов. В клипе используются символы технократии и культовый объект HEPEK; ролик набрал более полутора миллионов просмотров.

Уровень
В Сенате предлагают расширить контроль MTRCB над интернет‑контентом — Уровень B2
18 июн. 2025 г.

В Сенате предлагают расширить контроль MTRCB над интернет‑контентом

Законопроект в Сенате Филиппин предлагает распространить полномочия Комиссии по обзору и классификации фильмов и телевидения (MTRCB) на цифровые платформы. Артисты и продюсеры опасаются цензуры, в то время как автор законопроекта говорит о защите молодёжи.

Уровень
Активист из Конго о «проклятии ресурсов» и ненасильственном сопротивлении — Уровень B2
15 мар. 2026 г.

Активист из Конго о «проклятии ресурсов» и ненасильственном сопротивлении

Франсуа Камате, активист из восточной части Конго, предупреждает, что молчание и эксплуатация природных ресурсов разрушают сообщества и средства к существованию. Он продвигает ненасильственные стратегии, критикует внешние проекты и призывает к солидарности.

Уровень