Artistas, jornalistas e trabalhadores culturais aborígenes em toda a Austrália lançaram a campanha "Stop AI Theft" para exigir maior proteção e pagamento pelo uso de suas obras. Os ativistas dizem que modelos de IA recolheram conteúdo da internet sem permissão e que, além de prejudicar rendimentos, chegaram a gerar obras quase idênticas às originais. Ativistas também denunciaram a produção e venda de arte indígena falsa por sistemas generativos.
O Tech Council of Australia informou em August 2025 que 84% dos australianos em empregos de escritório usam IA no trabalho e estimou que a tecnologia poderia gerar até AUD 115 billion (over USD 79 billion) em valor económico anual e 200,000 empregos by 2030. Enquanto isso, atores de voz relatam clonagem de vozes e jornalistas dizem que suas reportagens foram plagiadas e reutilizadas em sites gerados por IA. Um relatório da University of Sydney, de January 2026, advertiu que jornalistas ficam cada vez mais invisíveis nos resultados de busca produzidos por IA.
A campanha usou a hashtag #PayUp e organizou uma carta aberta dirigida aos CEOs da Amazon, Google, Meta, Microsoft, Open AI e X, exigindo pagamento e compensação. Em julho de 2024 a MEAA apresentou demandas específicas no Senado, entre elas permitir que usuários optem por não ter seu trabalho usado no treino de IA, obrigar compensação às empresas e regras de transparência sobre os materiais usados:
- Opção de recusa para uso de obras no treino de IA.
- Compensação para trabalhadores criativos e da mídia.
- Transparência pública sobre materiais usados no treino.
Houve diálogo com empresas em August 2025 e o governo saudou o anúncio de outubro de 2025 de manter as proteções de direitos autorais. O National AI Plan, de December 2025, indicou que a Austrália avaliaria leis existentes quanto a riscos da IA, e o governo descartou uma exceção de text and data mining na legislação de direitos autorais, medida que ativistas disseram impediria acesso gratuito a obras australianas para treino de IA. Erin Madeley afirmou que "o modelo de negócios de algumas empresas depende de tomar trabalhos alheios e vendê-los como seus." Joseph Mitchell declarou: "Já sabemos que as grandes empresas de tecnologia vêm lucrando ao roubar o trabalho de criadores e jornalistas australianos, e pedidos para legitimar esse roubo são incompreensíveis."
Palavras difíceis
- campanha — ação organizada para promover uma causa pública
- recolher — juntar ou coletar material de várias fontesrecolheram
- clonagem — fazer cópia quase idêntica de voz ou obra
- plagiar — usar o trabalho de outra pessoa sem dar créditoplagiadas
- compensação — pagamento a criadores por uso ou prejuízo
- transparência — divulgação clara sobre quais materiais foram usados
- direito autoral — proteção legal de obras intelectuais e criativasdireitos autorais
- treino — processo de usar dados para ensinar um sistema de IA
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Que vantagens e desvantagens você vê em permitir que autores recusem o uso de suas obras para treino de IA? Explique.
- De que maneira a clonagem de vozes e o plágio por sistemas de IA podem afetar a carreira de jornalistas e atores de voz? Dê exemplos.
- Que medidas, presentes no texto ou outras, poderiam equilibrar a inovação em IA com a proteção e remuneração dos criadores? Explique suas sugestões.
Artigos relacionados
Grandes empresas e tecnologia dificultam agricultores familiares
Um relatório do IPES-Food, publicado na quarta-feira (25 February), alerta que alianças entre grandes empresas agrícolas e de tecnologia tornam ferramentas digitais caras e inacessíveis para agricultores familiares e concentram o controlo dos dados.
Ferramenta de IA para melhorar registos de causas de morte
Investigadores apresentaram o CODA, uma ferramenta de inteligência artificial de três anos, financiada pela Fundação Gates, para melhorar registos de causas de morte em países de baixa renda onde poucos óbitos têm causas documentadas.
Estudo: chatbots com IA podem mudar opiniões políticas
Pesquisa aponta que respostas comuns de chatbots com IA podem deslocar opiniões sociais e políticas quando usam enquadramentos sutis. Os autores compararam resumos do GPT-4o, entradas da Wikipedia e versões instruídas com tom liberal ou conservador.