Autora alerta sobre IA, lucro e danos humanosCEFR B1
21/04/2026
Adaptado de Guest Contributor, Global Voices • CC BY 3.0
Foto de Marija Zaric, Unsplash
Hija Kamran contribuiu para a série “Não pergunte à IA, pergunte a um par”, uma colaboração entre Global Voices, a Association for Progressive Communication (APC) e o GenderIT, e faz parte da série Spotlight de abril de 2026 do Global Voices. A autora diz que costuma ser adotante tardia e que o seu trabalho a torna cautelosa com novas tecnologias.
Kamran afirma que empresas de tecnologia mostram repetidamente que a prioridade são os modelos de negócio, não as pessoas. Cita a observação atribuída a Mark Zuckerberg — “Senador, nós veiculamos anúncios” — e relata que um representante disse: “Incentivo as pessoas a ler nossos termos de serviço”. Para ela, essas respostas mostram falta de transparência e responsabilização.
O artigo explica que a IA não é neutra: os sistemas são projetados por pessoas com visões específicas e os dados de treino vêm da internet e de registos públicos, refletindo racismo, sexismo e desigualdade económica. Kamran pede uma abordagem baseada em direitos humanos, ceticismo desde cedo e perguntas sobre quem construiu o sistema, como ele funciona e quem beneficia.
Palavras difíceis
- adotante — pessoa que começa a usar algo depois
- cauteloso — que age com cuidado e precauçãocautelosa
- modelo de negócio — forma como uma empresa ganha dinheiromodelos de negócio
- transparência — clareza sobre como algo funciona ou é feito
- responsabilização — ação de tornar alguém responsável por algo
- treino — conjunto de dados usados para ensinar um sistema
- registo — documento ou dado disponível ao públicoregistos públicos
- direitos humanos — liberdades e garantias fundamentais das pessoas
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Que perguntas você faria sobre um sistema de IA antes de o usar? Explique por que são importantes.
- Como as empresas poderiam aumentar a transparência e a responsabilização no uso da tecnologia? Dê duas sugestões.
- Você conhece exemplos de sistemas que refletem preconceitos nos dados? Como isso pode afetar pessoas na prática?
Artigos relacionados
Sensores domésticos e IA para monitorizar pessoas com ELA
Uma equipa da Universidade do Missouri testa sensores domésticos e inteligência artificial para acompanhar alterações de saúde em pessoas com esclerose lateral amiotrófica (ELA). O sistema usa aprendizado de máquina para estimar a pontuação ALSFRS-R e pode alertar clínicos.