Não pergunte à IA, pergunte a um parCEFR B1
15/04/2026
Adaptado de Ameya Nagarajan, Global Voices • CC BY 3.0
Foto de Marvin Meyer, Unsplash
Editoras de três organizações de direitos humanos publicaram um editorial em coautoria para discutir como reagir ao uso crescente de modelos de aprendizagem, a chamada inteligência artificial (IA). O texto foi escrito por Ameya Nagarajan, Débora Prado e Hija Kamran. No ano passado, a APC e o projeto GenderIT.org elaboraram uma política de IA com inspiração e trabalho conjunto do Global Voices.
Os editores analisam tanto riscos como usos da IA. Entre os riscos citam danos ambientais, exploração de terras e recursos, e uso para vigilância e guerra. Entre os usos, mencionam apoio a autores do Sul Global que escrevem em línguas não nativas e tecnologia assistiva para pessoas com deficiência.
Para resgatar trocas humanas, criaram a série "Não pergunte à IA, pergunte a um par", que privilegia saberes vividos, realidades locais e conexões pessoais. Os conteúdos serão editados e traduzidos por pessoas, terão reconhecimento claro e serão remunerados. A série convida ao debate e será publicada ao longo de abril em APC.org, GenderIT.org e globalvoices.org.
Palavras difíceis
- coautoria — texto escrito por mais de uma pessoa
- vigilância — observação e controle constante de pessoas
- exploração — uso injusto ou abusivo de recursos
- tecnologia assistiva — ferramentas que ajudam pessoas com deficiência
- remunerar — pagar por um trabalho ou contribuiçãoremunerados
- risco — possibilidade de dano ou problemariscos
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Você prefere pedir informação a uma pessoa ou a uma IA quando o tema é sobre sua comunidade local? Por quê?
- Quais vantagens e quais problemas você vê no uso da IA para ajudar autores que escrevem em línguas não nativas?