Когда ИИ ставят выше людейCEFR B2
21 апр. 2026 г.
Адаптировано по материалам Guest Contributor, Global Voices • CC BY 3.0
Фото: Marija Zaric, Unsplash
Материал входит в проект Global Voices вместе с Association for Progressive Communication и GenderIT и в серию Spotlight Global Voices за апрель 2026 года под названием «Человеческие взгляды на ИИ». Автор, Хиджа Камран (she/her), отмечает свою профессию и осторожное отношение к новым технологиям, часто будучи поздним пользователем.
Камран аргументирует, что технологические компании последовательно демонстрируют приоритет бизнес-моделей над интересами людей. В качестве примера приводится известное высказывание, приписываемое Марку Цукербергу, и случай, когда представитель компании в ответ на вопрос о вредном контенте и рекламе посоветовал читать условия обслуживания — такие ответы, по мнению автора, выявляют отсутствие существенной прозрачности и подотчётности.
Технологии, пишет автор, не нейтральны и укрепляют патриархальные и колониальные структуры власти: системы создают конкретные люди с определённым мировоззрением, и важно, кто их разрабатывает и где. Для обучения используются данные из интернета и открытых источников, отражающие истории исключения, расизма, сексизма и экономического неравенства; ИИ, обучаясь на таких данных, может кодировать и усиливать существующие вреды, но при этом выдавать результаты как нейтральные.
Корпоративные стимулы — мотивы прибыли, акционеры и цели роста — формируют приоритеты, скорость вывода продуктов и влияют на то, чьи земли, знания или жизни затрагиваются; автор употребляет термин «побочный ущерб» для описания тех, кто может пострадать. Камран подчёркивает риск дегуманизации, особенно в милитаризованных контекстах, где людей сводят к данным и рассматривают как цели. Системы ИИ не понимают контекста, истории или ответственности: они генерируют ответы на основе вероятностей, могут имитировать человеческие модели, но не испытывают заботы и не строят отношений. Автор призывает к подходу, основанному на правах человека, который переносит подотчётность на тех, кто обладает властью, и рекомендует быть скептичными на ранних этапах разработки и коммерциализации, задавая вопросы о создателях, работе системы и выгодах от неё.
- Рекомендации автора: скептицизм и вопросы к разработчикам.
- Важно переносить ответственность на тех, кто обладает властью.
- Нужно учитывать, чьи права и жизни затрагивает технология.
Сложные слова
- подотчётность — обязанность отвечать за свои действияподотчётности
- дегуманизация — сведение человека к объекту или даннымдегуманизации
- патриархальный — система, где доминируют мужчиныпатриархальные
- колониальный — связанный с контролем одной страны над другойколониальные
- побочный ущерб — люди или сообщества, которые могут пострадать
- коммерциализация — превращение продукта в товар для продажикоммерциализации
- мировоззрение — совокупность взглядов и убеждений человекамировоззрением
Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.
Вопросы для обсуждения
- Какие риски могут возникнуть, если ИИ обучается на данных с историей расизма и сексизма?
- Как, по‑вашему, можно перенести ответственность на тех, кто обладает властью в технологических компаниях?
- Какие вопросы вы бы задали разработчикам перед использованием новой технологии и почему?
Похожие статьи
Замедлить репосты, чтобы уменьшить дезинформацию
Исследователи из Университета Копенгагена предлагают сделать репосты чуть сложнее: добавить небольшую паузу и элемент обучения. Модель показывает, что пауза снижает репосты, а пауза вместе с обучением повышает качество распространяемых постов.
Приложение DopFone для домашнего контроля сердцебиения плода
Мобильное приложение DopFone превращает динамик телефона в допплеровский датчик и позволяет беременным следить за сердцебиением плода между приёмами у врача. Исследования показывают приемлемую точность, но учёные предупреждают о риске усиления тревоги.