Как ИИ меняет гражданскую жизнь в ГонконгеCEFR B2
27 апр. 2026 г.
Адаптировано по материалам Nishant Shah, Global Voices • CC BY 3.0
Фото: Markus Winkler, Unsplash
Специальный проект Global Voices за апрель 2026 года «Человеческие перспективы ИИ» исследует, как искусственный интеллект меняет гражданскую жизнь и отношения доверия. Автор, который преподаёт и живёт на кампусе государственного университета в Гонконге, описывает, как в начале учебного года кампус и город наполнились предупреждениями о мошенничестве: плакаты, электронные письма студентам, объявления в метро и публикации в газетах.
Один инцидент стал показателен: сотрудник компании поверил поддельному видеозвонку (deepfake) с участием финансового директора и перевёл крупные суммы. После этого официальные лица заявили, что ИИ уже здесь, а общество не до конца готово. По сути, генеративный ИИ смещает проблему с явной лжи на правдоподобие — контент теперь часто не выглядит явно фальшивым и одновременно не является надёжно истинным, что вызывает когнитивную усталость и ощущение бессилия.
Ответ Гонконга включает технические решения, например scameter+, которые обнаруживают или блокируют мошенничество; финансовые органы называют это новой территорией, где ИИ должен работать против ИИ. При этом доверие постепенно смещается с социальных практик на технические системы, которые заявляют, что определяют подлинность.
ИИ также внедряется в обычные публичные интерфейсы, среди них:
- справочные системы и сервисные киоски;
- процессы подачи заявлений в органах управления и инструменты перевода;
- платёжные шлюзы, автоматизированная помощь и городские рабочие процессы.
Авторы подчёркивают, что одна лишь скорость и эффективность не делают институты более гражданскими. Публичные слушания по пожару в жилом доме Тай По показали: для гражданского доверия важно, чтобы люди понимали, как принимаются решения, где можно оспорить ошибки и как распределяется ответственность. В Digital Narratives Studio предлагают реляционные практики — небольшие неформальные встречи, где люди называют ситуации, сравнивают опыт, делятся интерпретациями и совместно проверяют суждения. Такая работа снизу вверх идёт медленно и не всегда масштабируема, но её цель — восстановить реляционные условия, чтобы общественности могли вместе придавать смысл происходящему, а не только проверять, что реально.
Сложные слова
- генеративный — создающий новый контент с помощью алгоритмов
- правдоподобие — внешняя похожесть на правду или истину
- когнитивная усталость — умственное утомление из-за сложной или противоречивой информациикогнитивную усталость
- подлинность — состояние чего-то истинного и не подделанного
- реляционные практики — неформальные встречи для совместного обсуждения ситуаций
- мошенничество — обман для получения выгоды, преступное действиемошенничестве
- доверие — вера в честность или надёжность людей и системдоверия
Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.
Вопросы для обсуждения
- Какие риски вы видите, если доверие переносится с социальных практик на технические системы?
- Какие преимущества и ограничения реляционных практик, описанных в тексте, вы можете назвать?
- Что важно объяснить людям при внедрении ИИ в публичные решения, чтобы сохранить гражданское доверие?
Похожие статьи
После ChatGPT: как люди представляют искусственный интеллект
Появление больших языковых моделей после выхода ChatGPT в ноябре 2022 года изменило общественные разговоры об ИИ. Генеративный ИИ дал смешанные результаты, и эксперты призывают менять язык обсуждения в пользу безопасности и прав людей.