Não pergunte à IA, pergunte a um parCEFR B2
15/04/2026
Adaptado de Ameya Nagarajan, Global Voices • CC BY 3.0
Foto de Marvin Meyer, Unsplash
Editores de três organizações que trabalham com direitos humanos e vozes marginalizadas discutem como reagir ao uso crescente de grandes modelos de aprendizagem, conhecidos como inteligência artificial (IA). O editorial foi escrito em coautoria por Ameya Nagarajan, Débora Prado e Hija Kamran, e apenas teve revisão de pontuação e ortografia para preservar vozes distintas. No ano passado, a APC e o projeto GenderIT.org elaboraram uma política de IA, inspirada e desenvolvida com o Global Voices, investigando voz humana, autonomia, criatividade e trabalho.
Os editores apontam riscos, como danos ambientais, exploração de terras e recursos, uso para vigilância e guerra e outras violações de direitos humanos. Ao mesmo tempo, destacam usos potenciais: ferramentas que ajudam autores do Sul Global a escrever em línguas não nativas e que servem como tecnologia assistiva para pessoas com deficiência. Buscam maneiras de valorizar a criatividade humana, promover confiança e transparência e evitar proibições simplistas.
Dessas discussões nasceu a série colaborativa "Não pergunte à IA, pergunte a um par", idealizada pelo Global Voices com APC.org e GenderIT.org. A série quer revalorizar a troca de saberes entre pessoas — um intercâmbio comunitário baseado em experiências vividas, realidades locais e na necessidade de sentir-se ligado a outras pessoas — e responde à queda dessas trocas quando se recorre a ferramentas automatizadas em vez de perguntar a familiares, anciãos ou colegas.
Os conteúdos serão editados e traduzidos por pessoas, incluirão emoções e contradições humanas, serão remunerados e apresentarão reconhecimentos claros. A série foi lançada hoje e será publicada ao longo de abril em APC.org, GenderIT.org e globalvoices.org. Leitores podem assinar os boletins informativos da APC e do Global Voices para receber atualizações.
Ameya Nagarajan (ela/dela) é editora executiva da redação do Global Voices e editora do Advox. Débora Prado (ela/dela) é editora principal do APC.org. Hija Kamran (ela/dela) é editora principal do GenderIT.org e estrategista de advocacy no Programa de Direitos das Mulheres da APC. A Association for Progressive Communications é uma rede de membros focada em como a internet e as TICs podem ser orientadas para justiça social, de gênero e ambiental. GenderIT.org é uma publicação feminista hospedada pelo Programa de Direitos das Mulheres da APC. Global Voices é uma comunidade internacional de escritores, tradutores e ativistas de direitos humanos.
Palavras difíceis
- editorial — texto coletivo publicado que expressa opinião
- coautoria — ato de escrever junto com outras pessoas
- vigilância — observação sistemática para controlar ou vigiar
- autonomia — capacidade de decidir e agir de forma independente
- criatividade — capacidade de criar ideias novas ou originais
- tecnologia assistiva — ferramentas que ajudam pessoas com deficiência
- remunerar — pagar por um trabalho ou serviço prestadoremunerados
- marginalizado — pessoa ou grupo excluído socialmente ou politicamentemarginalizadas
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Que vantagens e riscos você vê no uso da IA para ajudar autores do Sul Global, segundo o texto?
- Como a troca comunitária mencionada no artigo pode influenciar a confiança entre pessoas e comunidades locais?
- O texto fala em valorizar criatividade, promover confiança e transparência em vez de proibições simplistas. Que medidas concretas, descritas no texto, poderiam apoiar essa abordagem?
Artigos relacionados
Resumos de áudio por IA ajudam, mas têm erros em pesquisas sobre Marte
O serviço NotebookLM do Google transforma artigos científicos em resumos de áudio no estilo podcast que são envolventes, mas também apresentam erros e extrapolações. Os autores recomendam ler o material original e acham o recurso útil, sem substituir a leitura crítica.
Modelos de linguagem mudam avaliações quando sabem quem escreveu o texto
Pesquisadores da University of Zurich mostram que quatro LLMs deram avaliações diferentes ao mesmo texto quando foi indicada a identidade do autor. Houve concordância alta sem fonte, mas surgiram vieses, especialmente contra autores da China.