Autora alerta sobre IA, lucro e danos humanosCEFR A2
21/04/2026
Adaptado de Guest Contributor, Global Voices • CC BY 3.0
Foto de Marija Zaric, Unsplash
O texto faz parte da série “Não pergunte à IA, pergunte a um par”, numa colaboração entre Global Voices, a Association for Progressive Communication e o GenderIT. Também integra a série Spotlight de abril de 2026 do Global Voices.
A autora escreve que empresas de tecnologia repetidamente mostram que priorizam modelos de negócio e não as pessoas. Afirma que a IA não é neutra e que os dados de treino refletem preconceitos e desigualdades. Diz ainda que incentivos de lucro podem causar danos colaterais e que, em situações militarizadas, pessoas podem ser reduzidas a pontos de dados. Pede uma abordagem baseada em direitos humanos e mais perguntas sobre quem constrói e quem beneficia.
Palavras difíceis
- colaboração — trabalho conjunto entre pessoas ou organizações
- priorizar — dar mais importância a algo ou alguémpriorizam
- preconceito — ideias negativas ou julgamentos sem provapreconceitos
- desigualdade — diferença injusta entre grupos de pessoasdesigualdades
- incentivo — algo que motiva uma ação ou lucroincentivos
- dano colateral — prejuízo não intencional em uma situaçãodanos colaterais
- direito humano — proteção e liberdade que toda pessoa temdireitos humanos
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Você concorda que a IA não é neutra? Por quê?
- Quem, na sua opinião, deve fazer perguntas sobre quem constrói a IA?
- Que perguntas você faria sobre o uso dos dados de treino?
Artigos relacionados
Estudo: chatbots com IA podem mudar opiniões políticas
Pesquisa aponta que respostas comuns de chatbots com IA podem deslocar opiniões sociais e políticas quando usam enquadramentos sutis. Os autores compararam resumos do GPT-4o, entradas da Wikipedia e versões instruídas com tom liberal ou conservador.