LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
Autora alerta sobre IA, lucro e danos humanos — Nível B2 — a sticker on the side of a wall

Autora alerta sobre IA, lucro e danos humanosCEFR B2

21/04/2026

Nível B2 – Intermediário-avançado
6 min
304 palavras

Esta contribuição de Hija Kamran integra a série “Não pergunte à IA, pergunte a um par”, resultado da colaboração entre Global Voices, a Association for Progressive Communication (APC) e o GenderIT, e também integra a série Spotlight de abril de 2026 do Global Voices. Kamran diz que o seu trabalho a torna cautelosa e que costuma ser uma adotante tardia de novas tecnologias.

A autora argumenta que as empresas de tecnologia mostram repetidamente que priorizam modelos de negócio em vez das pessoas. Cita a célebre frase atribuída a Mark Zuckerberg — “Senador, nós veiculamos anúncios” — e relata a resposta de um representante empresarial: “Incentivo as pessoas a ler nossos termos de serviço”. Kamran interpreta essas respostas como sinais de falta de transparência e de responsabilização.

O texto afirma que a tecnologia não é neutra e que reforça estruturas de poder patriarcais e coloniais. Os sistemas são desenhados por atores com visões específicas e os dados de treino, vindos da internet e de registos públicos, trazem histórias de exclusão, racismo, sexismo e desigualdade económica. Incentivos corporativos — lucro, acionistas e metas de crescimento — moldam que problemas são priorizados, a velocidade de lançamento e cujas terras, conhecimentos ou vidas são afetadas, criando o que o artigo chama de “danos colaterais”.

Kamran também destaca o risco de desumanização: em contextos militarizados, pessoas podem ser reduzidas a pontos de dados e tratadas como alvos. Sublinha que sistemas de IA geram respostas a partir de probabilidades, não compreendem contexto, história ou responsabilidade, e não podem cuidar ou manter relações humanas. Por isso defende uma abordagem baseada em direitos humanos que desloque a responsabilização para quem detém poder, e recomenda ceticismo desde as fases iniciais e perguntas sobre quem construiu, como funciona e quem beneficia.

Hija Kamran é editora‑chefe do GenderIT.org e estrategista de advocacy no Women’s Rights Programme da APC.

Palavras difíceis

  • adotantePessoa que começa a usar algo novo
    adotante tardia
  • modelo de negócioForma de organizar atividades para gerar lucro
    modelos de negócio
  • responsabilizaçãoObrigação de responder por ações ou erros
  • transparênciaAbertura e clareza sobre decisões e processos
  • estrutura de poderRede ou sistema que controla recursos e decisões
    estruturas de poder
  • dados de treinoInformações usadas para ensinar sistemas de IA
  • dano colateralPrejuízo não intencional causado por uma ação
    danos colaterais
  • desumanizaçãoTratamento que reduz pessoas a coisas ou números
  • ceticismoAtitude de dúvida ou desconfiança ante afirmações
  • probabilidadeMedida da chance de um evento acontecer
    probabilidades

Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.

Perguntas para discussão

  • Como a ideia de que "a tecnologia não é neutra" pode afetar decisões sobre novas ferramentas numa organização?
  • Que perguntas você faria sobre um sistema de IA antes de aceitá‑lo numa instituição pública ou empresa? Explique por quê.
  • Que consequências sociais podem surgir quando empresas priorizam crescimento e lucro em vez de transparência e responsabilização? Dê exemplos curtos.

Artigos relacionados