IA e preocupações para pessoas LGBTQ+CEFR A2
18/11/2025
Adaptado de Aaron Spitler, Global Voices • CC BY 3.0
Foto de Igor Omilaev, Unsplash
A inteligência artificial está mais presente na vida quotidiana. Uma pesquisa global da Ipsos encontrou que 55% dos entrevistados sentem que soluções com IA dão mais benefícios do que desvantagens. O investimento privado em IA aumentou e empresas anunciam eficiência e facilidade de uso, mas muitas pessoas ainda estão preocupadas com os riscos.
Relatos como o da Wired mostram que ferramentas de imagem, por exemplo Midjourney, criaram imagens redutoras quando pedidas para representar pessoas LGBTQ+. Dados da internet podem carregar estereótipos; rotular melhor os dados pode ajudar, mas não elimina todo o conteúdo prejudicial.
A UNESCO constatou viés em grandes modelos de linguagem e que ferramentas como Llama 2 da Meta e GPT-2 da OpenAI produziram conteúdo negativo sobre pessoas gays em mais de metade das simulações. Grupos como Forbidden Colours alertam para sistemas de reconhecimento automático de gênero (AGR) e dizem que eles são equivocados e perigosos. A Politico Europe relatou que Viktor OrbE1n sancionou monitoramento biométrico em eventos Pride, e instituições da União Europeia estão a rever a política. Defensores pedem parcerias, salvaguardas e proibição de sistemas que detectem ou classifiquem o gênero.
Palavras difíceis
- inteligência — Capacidade de aprender e entender.
- artificial — Feito pelo ser humano, não natural.
- problemas — Situações difíceis ou desafiadoras.
- comunidade — Grupo de pessoas com interesses comuns.
- tecnologia — Aplicação do conhecimento para resolver problemas.
- gênero — Classificação de pessoas como masculino ou feminino.
- identidade — Como uma pessoa se reconhece.
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Como você se sente sobre a tecnologia em sua vida?
- Por que é importante respeitar as identidades das pessoas?
- Quais soluções podem ser criadas para evitar problemas com IA?
Artigos relacionados
Por que modelos de linguagem falham ao multiplicar 4 dígitos
Pesquisa mostra que métodos de treino comuns não permitem que modelos guardem resultados intermédios, por isso falham ao multiplicar dois números de quatro dígitos. Um método chamado ICoT aprendeu a armazenar esses valores e teve sucesso.
Modelos de linguagem mudam avaliações quando sabem quem escreveu o texto
Pesquisadores da University of Zurich mostram que quatro LLMs deram avaliações diferentes ao mesmo texto quando foi indicada a identidade do autor. Houve concordância alta sem fonte, mas surgiram vieses, especialmente contra autores da China.