LingVo.club
Nível
IA e preocupações para pessoas LGBTQ+ — Nível B2 — a computer chip with the letter a on top of it

IA e preocupações para pessoas LGBTQ+CEFR B2

18/11/2025

Nível B2 – Intermediário-avançado
6 min
334 palavras

A inteligência artificial está cada vez mais integrada na vida quotidiana e no mercado. Uma pesquisa global da Ipsos indica que 55% dos entrevistados acreditam que soluções com IA oferecem mais benefícios do que desvantagens. O aumento do investimento privado na última década levou empresas a promoverem essas ferramentas pela eficiência e facilidade de uso, mas também gerou preocupações públicas sobre riscos sociais e éticos.

Uma fonte importante desses riscos são os dados de treino. A Wired reportou que ferramentas de geração de imagens, como Midjourney, produziram imagens redutoras e prejudiciais ao representar pessoas LGBTQ+. Dados recolhidos na internet podem transportar estereótipos, e modelos treinados nesses dados tendem a reproduzi-los. A rotulagem mais cuidadosa dos dados pode atenuar problemas, mas dificilmente elimina todo o conteúdo depreciativo existente online.

A UNESCO examinou as suposições por trás de vários grandes modelos de linguagem e concluiu que ferramentas amplamente usadas, como Llama 2 da Meta e GPT-2 da OpenAI, foram moldadas por atitudes heteronormativas e geraram conteúdo negativo sobre pessoas gays em mais de metade das simulações. Além dos resultados digitais, há riscos concretos de vigilância. Forbidden Colours descreveu o funcionamento dos sistemas de reconhecimento automático de gênero (AGR), que analisam material audiovisual e usam traços faciais ou padrões vocais para inferir o gênero, uma abordagem que essa organização considera equivocada e potencialmente perigosa.

A Politico Europe relatou que o primeiro‑ministro Viktor OrbE1n sancionou o monitoramento biométrico com IA em eventos locais do Pride, alegando proteção de crianças contra uma “agenda LGBTQ+”; na prática, a medida permite que governos e forças de segurança vigiem artistas, ativistas e cidadãos comuns. Instituições da União Europeia estão a rever a política.

Defensores dos direitos propõem mudanças concretas para reduzir danos e tornar a IA mais justa: parcerias entre desenvolvedores e representantes LGBTQ+, salvaguardas mais fortes contra uso indevido da vigilância e a proibição de sistemas que detetem ou classifiquem o gênero. Recomenda-se também a participação de pessoas LGBTQ+ em todas as fases do desenvolvimento dessas ferramentas.

Palavras difíceis

  • treinoprocesso de ensinar um modelo com dados
  • estereótipoideia fixa e exagerada sobre um grupo
    estereótipos
  • rotulagemação de identificar e classificar dados
  • vigilânciaobservação e controlo de pessoas ou espaços
  • heteronormativoque assume a heterosexualidade como padrão social
    heteronormativas
  • recolherjuntar ou obter informação de uma fonte
    recolhidos
  • salvaguardamedida para proteger contra uso indevido
    salvaguardas
  • monitoramentoobservação contínua usando tecnologia para segurança
  • detetaridentificar a presença de algo ou alguém
    detetem

Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.

Perguntas para discussão

  • De que forma a inclusão de pessoas LGBTQ+ em todas as fases do desenvolvimento de IA pode alterar os resultados dessas ferramentas?
  • Quais são os riscos práticos da utilização de monitoramento biométrico em eventos públicos, segundo o texto?
  • Que tipos de salvaguardas práticas poderiam impedir o uso indevido da vigilância com IA?

Artigos relacionados

IA e preocupações para pessoas LGBTQ+ — Português Nível B2 | LingVo.club