Социальные сети, дезинформация и новые рискиCEFR B2
10 нояб. 2025 г.
Адаптировано по материалам Safa, Global Voices • CC BY 3.0
Фото: Mariia Shalabaieva, Unsplash
Социальные сети всё сильнее влияют на то, как люди находят информацию и создают сообщества. Платформы дают доступ к поддержке и связям для многих маргинализованных групп, но одновременно они могут распространять язык вражды, ложь и приводить к вреду в реальном мире. Эксперты отмечают, что технологии часто усиливают и пользу, и риск одновременно.
В январе 2025 года Марк Цукерберг объявил, что Meta завершит программу независимой проверки фактов и перейдёт на модель «community notes», похожую на ту, что использовала платформа X. Компания также сообщила о прекращении некоторых правил, защищавших пользователей LGBTQ+. International Fact-Checking Network назвала окончание девятилетней программы «шагом назад». Верховный комиссар ООН по правам человека Фолькер Тюрк предупредил: «Допускать в сети разжигание ненависти и вредный контент имеет реальные последствия в реальном мире.»
Исследователи указывают на особенности дизайна платформ, которые вознаграждают клики и вовлечённость. Одно исследование показало, что 15% наиболее привычных пользователей Facebook были ответственны за 37% ложных заголовков, поделившихся в исследовании. Утёкший отчёт Facebook 2019 года утверждал, что вирусность, рекомендации и оптимизация под вовлечённость помогают расцветать языку вражды и дезинформации. Исправления и уточнения редко получают такое же внимание, как первоначальные ложные утверждения; как писал First Draft News, «Очень, очень трудно вытеснить [дезинформацию] из головы.»
Системы рекомендаций связывают с радикализацией: в 2021 году исследование показало, что алгоритм TikTok может переводить зрителей от трансфобных видео к насильственному правому контенту. YouTube называли «двигателем радикализации», а отдельные отчёты говорили о направлении детей в YouTube Kids к контенту о расстройствах пищевого поведения. Перед выборами в Германии 2025 года исследователи заметили сдвиг лент в правую сторону, особенно на TikTok.
Появление генеративного ИИ и автоматических систем добавляет новые риски. На выборах в Индонезии в 2024 году использовались созданные ИИ цифровые аватары; бывший кандидат Prabowo Subianto широко применял такой аватар в социальных сетях. Генеративные инструменты, включая чат‑боты вроде ChatGPT, создают реалистичные тексты и изображения, которые искажают правду. В отчёте Freedom House 2023 года предупреждалось, что автоматические системы дают более точные средства цензуры и что «распространители дезинформации используют сгенерированные ИИ изображения, аудио и тексты, что облегчает искажение правды и затрудняет её распознавание.»
В Венесуэле сообщения, созданные ИИ в поддержку власти, сосуществуют с угрозами журналистам; некоторые журналисты используют цифровые аватары, чтобы защитить свою личность. Небольшие или шутливые страницы, например «Shrimp Jesus», подрывают доверие и кормят брокеров данных, что имеет реальные последствия для мошенничества и операций по влиянию. В целом технологии могут давать власть и защиту, но их также можно использовать во вред; баланс зависит от дизайнерских решений, структур власти и того, кто контролирует инструменты.
Сложные слова
- маргинализованный — находящийся в социальной периферии, без властимаргинализованных
- дезинформация — ложная информация, вводящая людей в заблуждениедезинформации
- вовлечённость — уровень реакции и участия пользователей в контенте
- радикализация — процесс перехода к экстремальным или насильственным идеямрадикализацией
- генеративный — создающий автоматически новые тексты и изображениягенеративного, Генеративные
- аватар — цифровое изображение или представление человека в сетиаватары
Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.
Вопросы для обсуждения
- Как, по‑вашему, платформы могут сохранять поддержку маргинализованных групп, но одновременно уменьшать распространение языка вражды? Предложите два возможных подхода.
- Какие конкретные риски для выборов и общественного доверия создают генеративные ИИ и цифровые аватары? Приведите примеры из текста.
- Как дизайн алгоритмов и то, кто контролирует инструменты, влияет на баланс пользы и вреда технологий? Объясните с опорой на статью.