По всей Австралии художники, журналисты и аборигенные культурные работники объединились в кампанию «Stop AI Theft», требуя более надёжной правовой защиты и компенсаций за использование их работ при обучении генеративного ИИ. Создатели утверждают, что некоторые популярные модели обучались на контенте из интернета без разрешения и иногда генерируют почти идентичные работы. Актёры озвучивания заявили о клонировании голосов без согласия, а журналисты — о плагиате и повторном использовании материалов на сайтах с ИИ-новостями. Активисты коренных народов сообщали о случаях создания и продажи поддельного аборигенного искусства.
В августе 2025 года Tech Council of Australia отметил, что 84 percent офисных сотрудников используют ИИ и что технология может создать AUD 115 billion (over USD 79 billion) экономической ценности в год и добавить 200,000 рабочих мест к 2030 году. В январе 2026 года отчёт Университета Сиднея предупреждал, что журналисты всё чаще становятся невидимыми в результатах генеративного ИИ.
MEAA в июле 2024 года на слушаниях в Сенате выдвинула конкретные требования: предоставить авторам право отказаться от использования их работ для обучения ИИ, законодательно обязать компании компенсировать использование материалов, а также ввести правила прозрачности о том, какие материалы использовались для обучения. Кампания продвигала хэштег #PayUp и направляла открытое письмо CEO Amazon, Google, Meta, Microsoft, Open AI и X с требованием выплат и компенсаций.
Активисты приветствовали заявление федерального правительства в октябре 2025 года о сохранении защиты авторского права. В декабре 2025 года Национальный план по ИИ пообещал оценить действующие законы на предмет рисков; правительство исключило из закона об авторском праве исключение для text and data mining, что, по словам кампании, заблокировало попытку дать компаниям бесплатный доступ к австралийским произведениям для обучения ИИ.
- право отказаться от использования работ для обучения ИИ;
- обязательная компенсация авторам за использование материалов;
- прозрачность: публичное раскрытие использованных источников.
Сложные слова
- генеративный ИИ — тип искусственного интеллекта, который создаёт новый контентгенеративного ИИ
- обучение — процесс подготовки модели на примерах или данныхобучении, обучения
- компенсация — денежная выплата автору за использование материаловкомпенсаций, компенсацию
- клонирование — создание почти точной копии чего-либоклонировании
- плагиат — несанкционированное присвоение чужого текста или идейплагиате
- прозрачность — открытое раскрытие информации о действиях или источникахпрозрачности
- авторское право — законная защита творческих произведений и прав автораавторского права, авторском праве
- отказаться — заявить, что не разрешаешь использование своей работы
Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.
Вопросы для обсуждения
- Должны ли компании компенсировать авторам использование их работ для обучения ИИ? Почему?
- Какие преимущества и риски вы видите в сохранении защиты авторского права при развитии ИИ?
- Какие меры могло бы принять правительство, чтобы защитить права коренных народов в цифровой сфере?