IA e preocupações para pessoas LGBTQ+CEFR B2
18/11/2025
Adaptado de Aaron Spitler, Global Voices • CC BY 3.0
Foto de Igor Omilaev, Unsplash
A inteligência artificial está cada vez mais integrada na vida quotidiana e no mercado. Uma pesquisa global da Ipsos indica que 55% dos entrevistados acreditam que soluções com IA oferecem mais benefícios do que desvantagens. O aumento do investimento privado na última década levou empresas a promoverem essas ferramentas pela eficiência e facilidade de uso, mas também gerou preocupações públicas sobre riscos sociais e éticos.
Uma fonte importante desses riscos são os dados de treino. A Wired reportou que ferramentas de geração de imagens, como Midjourney, produziram imagens redutoras e prejudiciais ao representar pessoas LGBTQ+. Dados recolhidos na internet podem transportar estereótipos, e modelos treinados nesses dados tendem a reproduzi-los. A rotulagem mais cuidadosa dos dados pode atenuar problemas, mas dificilmente elimina todo o conteúdo depreciativo existente online.
A UNESCO examinou as suposições por trás de vários grandes modelos de linguagem e concluiu que ferramentas amplamente usadas, como Llama 2 da Meta e GPT-2 da OpenAI, foram moldadas por atitudes heteronormativas e geraram conteúdo negativo sobre pessoas gays em mais de metade das simulações. Além dos resultados digitais, há riscos concretos de vigilância. Forbidden Colours descreveu o funcionamento dos sistemas de reconhecimento automático de gênero (AGR), que analisam material audiovisual e usam traços faciais ou padrões vocais para inferir o gênero, uma abordagem que essa organização considera equivocada e potencialmente perigosa.
A Politico Europe relatou que o primeiro‑ministro Viktor OrbE1n sancionou o monitoramento biométrico com IA em eventos locais do Pride, alegando proteção de crianças contra uma “agenda LGBTQ+”; na prática, a medida permite que governos e forças de segurança vigiem artistas, ativistas e cidadãos comuns. Instituições da União Europeia estão a rever a política.
Defensores dos direitos propõem mudanças concretas para reduzir danos e tornar a IA mais justa: parcerias entre desenvolvedores e representantes LGBTQ+, salvaguardas mais fortes contra uso indevido da vigilância e a proibição de sistemas que detetem ou classifiquem o gênero. Recomenda-se também a participação de pessoas LGBTQ+ em todas as fases do desenvolvimento dessas ferramentas.
Palavras difíceis
- treino — processo de ensinar um modelo com dados
- estereótipo — ideia fixa e exagerada sobre um grupoestereótipos
- rotulagem — ação de identificar e classificar dados
- vigilância — observação e controlo de pessoas ou espaços
- heteronormativo — que assume a heterosexualidade como padrão socialheteronormativas
- recolher — juntar ou obter informação de uma fonterecolhidos
- salvaguarda — medida para proteger contra uso indevidosalvaguardas
- monitoramento — observação contínua usando tecnologia para segurança
- detetar — identificar a presença de algo ou alguémdetetem
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- De que forma a inclusão de pessoas LGBTQ+ em todas as fases do desenvolvimento de IA pode alterar os resultados dessas ferramentas?
- Quais são os riscos práticos da utilização de monitoramento biométrico em eventos públicos, segundo o texto?
- Que tipos de salvaguardas práticas poderiam impedir o uso indevido da vigilância com IA?
Artigos relacionados
Jornalistas pedem ajuda contra notícias falsas de IA
Representantes de países de baixa e média renda, no Fórum Belt and Road em Ganzhou, pediram a um grupo de jornalistas chinês apoio para combater notícias falsas geradas por inteligência artificial e pressionar plataformas a rotular esse conteúdo.
Nova IA ajuda estudantes de medicina a praticar sutura
Pesquisadores da Johns Hopkins criaram uma ferramenta de inteligência artificial explicável que orienta estudantes de medicina na prática de sutura. O sistema dá feedback personalizado por mensagem de texto; estudo com 12 alunos mostrou mais ganho entre os mais experientes.
Arquivistas cidadãos preservam cultura oral no Sul da Ásia
Arquivistas cidadãos gravam cantos, histórias e saberes tradicionais no Sul da Ásia. O projeto "Enhancing Indic oral culture on Wikimedia projects" apoia gravações e transcrições para Wikimedia Commons, Wikisource e Wikipedia.
Vestível com IA detecta fragilidade em idosos
Pesquisadores da University of Arizona criaram uma manga vestível com inteligência artificial que identifica sinais precoces de fragilidade em adultos mais velhos. A deteção antecipada pode mudar o cuidado, do tratamento após quedas para intervenções preventivas.