IA e preocupações para pessoas LGBTQ+CEFR B1
18/11/2025
Adaptado de Aaron Spitler, Global Voices • CC BY 3.0
Foto de Igor Omilaev, Unsplash
A inteligência artificial tornou-se cada vez mais comum em serviços e produtos. Uma pesquisa global da Ipsos mostrou que 55% dos entrevistados acreditam que as soluções com IA trazem mais benefícios do que desvantagens. Ao mesmo tempo, o investimento privado em IA aumentou muito na última década, e empresas promovem essas ferramentas pela sua eficiência e facilidade de uso; ainda assim, muitas pessoas permanecem preocupadas com os riscos.
Muitos problemas começam com os dados usados para treinar modelos. A Wired relatou que ferramentas de geração de imagens, como Midjourney, produziram imagens redutoras e prejudiciais quando pedidas para representar pessoas LGBTQ+. Dados recolhidos na internet podem carregar estereótipos, e modelos treinados nesses dados tendem a reproduzi-los. Medidas como melhor rotulagem dos dados podem reduzir problemas, mas não eliminam todo o conteúdo depreciativo existente online.
A UNESCO examinou suposições por trás de vários grandes modelos de linguagem e concluiu que ferramentas amplamente usadas, como Llama 2 da Meta e GPT-2 da OpenAI, foram moldadas por atitudes heteronormativas e criaram conteúdo negativo sobre pessoas gays em mais de metade das simulações. O viés não se limita a resultados digitais: organizações como Forbidden Colours explicam que sistemas de reconhecimento automático de gênero (AGR) tentam inferir o gênero a partir de traços faciais ou padrões vocais, mas não conseguem refletir como uma pessoa entende o seu próprio gênero e podem ser perigosos. A Politico Europe relatou que Viktor OrbE1n sancionou o monitoramento biométrico em eventos Pride; essa medida permite vigilância de artistas, ativistas e cidadãos, e instituições da União Europeia estão a rever a política. Defensores dos direitos pedem parcerias com representantes LGBTQ+, salvaguardas mais fortes e a proibição de sistemas que detectem ou classifiquem o gênero, além da participação de pessoas LGBTQ+ em todas as fases do desenvolvimento dessas ferramentas.
Palavras difíceis
- inteligência — Capacidade de aprender e resolver problemas.inteligência artificial
- comunidade — Grupo de pessoas com interesses comuns.comunidade LGBTQ+
- prejudicial — Algo que causa dano ou problema.prejudiciais
- tecnologia — Métodos e ferramentas para resolver problemas.tecnologia AI
- privacidade — Direito de controlar informações pessoais.
- direitos — Privilégios ou liberdades garantidas às pessoas.
- identidade — Conceito de quem uma pessoa é.
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Como a tecnologia pode ser usada de forma mais ética?
- Quais são as consequências de estereótipos na IA?
- De que forma a privacidade pode ser protegida em sistemas de vigilância?
Artigos relacionados
Ferramenta reduz animosidade partidária no X
Pesquisadores criaram uma extensão que reordena o feed do X para reduzir conteúdo antidemocrático e animosidade partidária sem remover publicações. Testes com voluntários durante a eleição de 2024 mostraram melhora pequena, mas consistente, nas atitudes.
Nano‑OLEDs do ETH Zurich com pixels menores que células
Pesquisadores do ETH Zurich fabricaram OLEDs em escala nanométrica com pixels de até 100 nanômetros e demonstraram um logótipo de 2.800 nano‑pixels. O trabalho saiu na revista Nature Photonics e aponta aplicações em ecrãs e microscopia.