Não pergunte à IA, pergunte a um parCEFR A2
15/04/2026
Adaptado de Ameya Nagarajan, Global Voices • CC BY 3.0
Foto de Marvin Meyer, Unsplash
Editores de três organizações de direitos humanos discutem o uso crescente de grandes modelos de aprendizagem, chamados inteligência artificial (IA). No ano passado, a APC e o projeto GenderIT.org elaboraram uma política de IA em colaboração com o Global Voices.
Os editores apontam riscos, como danos ambientais, exploração de terras e vigilância, mas também vêem usos, por exemplo ajudar autores que escrevem em línguas não nativas e apoiar pessoas com deficiência. Para valorizar a troca humana, lançaram a série "Não pergunte à IA, pergunte a um par" com textos editados por pessoas e pagamentos claros.
Palavras difíceis
- inteligência artificial — programas e sistemas que imitam o pensamento humano
- política — conjunto de regras ou orientações sobre algo
- risco — possibilidade de acontecer algo ruimriscos
- vigilância — observação contínua de pessoas ou lugares
- deficiência — limitação física ou mental que afeta alguém
- exploração — uso de recursos ou terras para benefício
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Por que os editores lançaram a série 'Não pergunte à IA, pergunte a um par'?
- Você já usou IA para ajudar a escrever numa língua que não é sua? Conte brevemente.
- Você acha que apoiar pessoas com deficiência com tecnologia é importante? Por quê?
Artigos relacionados
Comunidades costeiras enfrentam traineiras ilegais no Douala‑Edea
Comunidades de Mbiako, Yoyo I e Yoyo II dizem sofrer ataques de traineiras industriais no Parque Nacional Douala‑Edea. Redes, químicos e violência destroem mangues, reduzem estoques de peixes e motivam a criação de comitês locais para monitorar e agir.