После ChatGPT: как люди представляют искусственный интеллектCEFR B2
16 апр. 2026 г.
Адаптировано по материалам Daria Dergacheva, Global Voices • CC BY 3.0
Фото: Brett Jordan, Unsplash
После массового появления ChatGPT в ноябре 2022 года большие языковые модели перестали быть только технической темой и вошли в общественные дискуссии. Генеративный ИИ показал смешанные результаты: с одной стороны, он дал новые инструменты для программистов и повлиял на образование, с другой — применялся в военных конфликтах и породил экономические и этические вопросы.
Многие фирмы остаются без прибыльных бизнес‑моделей и связаны с технологическими олигархами: Google разрабатывает Gemini; Microsoft инвестировала в Anthropic и OpenAI; Meta владеет Llama; Elon Musk купил и уничтожил Twitter и предлагает Grok; Jeff Bezos инвестирует в несколько AI‑компаний, включая Perplexity AI и Toloka. Такая концентрация и публичные заявления руководителей усиливают тенденцию к антропоморфизации технологий.
Внутри отрасли тоже идут дискуссии. Anthropic опубликовала Claude’s Constitution; одну из соавторов, философа Amanda Askell, цитируют как человека, «строящего личность Клода», а юристка Luisa Jarovsky предупреждала о риске придания ИИ морального или правового статуса. Исследователи отмечают, что LLMы часто пишут от первого лица, а синтетические голоса стремятся звучать по‑человечески. Термин «галлюцинации» используют для описания ошибок, хотя по сути это статистические промахи, которые, по оценкам некоторых исследователей, происходят в 25–30 % случаев.
Эксперты настаивают на смене языка: генеративный ИИ воспроизводит человеческие паттерны и работает как вероятностная автоматизация. Журналистам и политикам советуют не транслировать маркетинговые формулы компаний, а сосредоточиться на безопасности, правах и ценности человеческого творчества и связи. Авторы материала — Daria Dergacheva и Ibrahim Kizza.
Сложные слова
- генеративный — относящийся к созданию нового контента автоматически
- антропоморфизация — приписывание человеку подобных черт или качеств объектуантропоморфизации
- концентрация — скопление ресурсов или власти в одних руках
- галлюцинация — ложная информация, которую модель выдает как фактгаллюцинации
- вероятностная автоматизация — система, которая выбирает действия по вероятностям
- воспроизводить — делать снова, повторять результат или поведениевоспроизводит
Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.
Вопросы для обсуждения
- Какие преимущества и риски генеративного ИИ можно выделить на основании текста? Приведите примеры из статьи.
- Какие возможные последствия для общества может иметь концентрация технологий у крупных компаний, упомянутая в тексте?
- Насколько оправдана, по мнению экспертов в статье, смена языка при обсуждении ИИ и почему?
Похожие статьи
Родительская разрешительность и риск binge drinking у студентов
Исследование в журнале Behavioral Sciences показало: более разрешительные установки родителей до и в первый год учёбы связаны с повышенной вероятностью вступления студентов в братства и сестрества и с большим риском эпизодического интенсивного употребления алкоголя.
ИИ помогает студентам учиться накладывать швы
Исследователи из Johns Hopkins разработали инструмент на основе искусственного интеллекта, который обучает базовым хирургическим навыкам и даёт персональную текстовую обратную связь. Проверка на 12 студентах показала разные результаты для опытных и новичков.
Выборы в Бангладеш и ложный контент с помощью ИИ
12 февраля в Бангладеш прошли напряжённые выборы после студенческого восстания 2024 года. В кампании широко использовали материалы, созданные с помощью ИИ: поддельные фото, видео и ложные цитаты, которые вводили людей в заблуждение.