Autora alerta sobre IA, lucro e danos humanosCEFR B2
21/04/2026
Adaptado de Guest Contributor, Global Voices • CC BY 3.0
Foto de Marija Zaric, Unsplash
Esta contribuição de Hija Kamran integra a série “Não pergunte à IA, pergunte a um par”, resultado da colaboração entre Global Voices, a Association for Progressive Communication (APC) e o GenderIT, e também integra a série Spotlight de abril de 2026 do Global Voices. Kamran diz que o seu trabalho a torna cautelosa e que costuma ser uma adotante tardia de novas tecnologias.
A autora argumenta que as empresas de tecnologia mostram repetidamente que priorizam modelos de negócio em vez das pessoas. Cita a célebre frase atribuída a Mark Zuckerberg — “Senador, nós veiculamos anúncios” — e relata a resposta de um representante empresarial: “Incentivo as pessoas a ler nossos termos de serviço”. Kamran interpreta essas respostas como sinais de falta de transparência e de responsabilização.
O texto afirma que a tecnologia não é neutra e que reforça estruturas de poder patriarcais e coloniais. Os sistemas são desenhados por atores com visões específicas e os dados de treino, vindos da internet e de registos públicos, trazem histórias de exclusão, racismo, sexismo e desigualdade económica. Incentivos corporativos — lucro, acionistas e metas de crescimento — moldam que problemas são priorizados, a velocidade de lançamento e cujas terras, conhecimentos ou vidas são afetadas, criando o que o artigo chama de “danos colaterais”.
Kamran também destaca o risco de desumanização: em contextos militarizados, pessoas podem ser reduzidas a pontos de dados e tratadas como alvos. Sublinha que sistemas de IA geram respostas a partir de probabilidades, não compreendem contexto, história ou responsabilidade, e não podem cuidar ou manter relações humanas. Por isso defende uma abordagem baseada em direitos humanos que desloque a responsabilização para quem detém poder, e recomenda ceticismo desde as fases iniciais e perguntas sobre quem construiu, como funciona e quem beneficia.
Hija Kamran é editora‑chefe do GenderIT.org e estrategista de advocacy no Women’s Rights Programme da APC.
Palavras difíceis
- adotante — Pessoa que começa a usar algo novoadotante tardia
- modelo de negócio — Forma de organizar atividades para gerar lucromodelos de negócio
- responsabilização — Obrigação de responder por ações ou erros
- transparência — Abertura e clareza sobre decisões e processos
- estrutura de poder — Rede ou sistema que controla recursos e decisõesestruturas de poder
- dados de treino — Informações usadas para ensinar sistemas de IA
- dano colateral — Prejuízo não intencional causado por uma açãodanos colaterais
- desumanização — Tratamento que reduz pessoas a coisas ou números
- ceticismo — Atitude de dúvida ou desconfiança ante afirmações
- probabilidade — Medida da chance de um evento acontecerprobabilidades
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Como a ideia de que "a tecnologia não é neutra" pode afetar decisões sobre novas ferramentas numa organização?
- Que perguntas você faria sobre um sistema de IA antes de aceitá‑lo numa instituição pública ou empresa? Explique por quê.
- Que consequências sociais podem surgir quando empresas priorizam crescimento e lucro em vez de transparência e responsabilização? Dê exemplos curtos.
Artigos relacionados
Estudo: chatbots com IA podem mudar opiniões políticas
Pesquisa aponta que respostas comuns de chatbots com IA podem deslocar opiniões sociais e políticas quando usam enquadramentos sutis. Os autores compararam resumos do GPT-4o, entradas da Wikipedia e versões instruídas com tom liberal ou conservador.