IA e preocupações para pessoas LGBTQ+CEFR B2
18/11/2025
Adaptado de Aaron Spitler, Global Voices • CC BY 3.0
Foto de Igor Omilaev, Unsplash
A inteligência artificial está cada vez mais integrada na vida quotidiana e no mercado. Uma pesquisa global da Ipsos indica que 55% dos entrevistados acreditam que soluções com IA oferecem mais benefícios do que desvantagens. O aumento do investimento privado na última década levou empresas a promoverem essas ferramentas pela eficiência e facilidade de uso, mas também gerou preocupações públicas sobre riscos sociais e éticos.
Uma fonte importante desses riscos são os dados de treino. A Wired reportou que ferramentas de geração de imagens, como Midjourney, produziram imagens redutoras e prejudiciais ao representar pessoas LGBTQ+. Dados recolhidos na internet podem transportar estereótipos, e modelos treinados nesses dados tendem a reproduzi-los. A rotulagem mais cuidadosa dos dados pode atenuar problemas, mas dificilmente elimina todo o conteúdo depreciativo existente online.
A UNESCO examinou as suposições por trás de vários grandes modelos de linguagem e concluiu que ferramentas amplamente usadas, como Llama 2 da Meta e GPT-2 da OpenAI, foram moldadas por atitudes heteronormativas e geraram conteúdo negativo sobre pessoas gays em mais de metade das simulações. Além dos resultados digitais, há riscos concretos de vigilância. Forbidden Colours descreveu o funcionamento dos sistemas de reconhecimento automático de gênero (AGR), que analisam material audiovisual e usam traços faciais ou padrões vocais para inferir o gênero, uma abordagem que essa organização considera equivocada e potencialmente perigosa.
A Politico Europe relatou que o primeiro‑ministro Viktor OrbE1n sancionou o monitoramento biométrico com IA em eventos locais do Pride, alegando proteção de crianças contra uma “agenda LGBTQ+”; na prática, a medida permite que governos e forças de segurança vigiem artistas, ativistas e cidadãos comuns. Instituições da União Europeia estão a rever a política.
Defensores dos direitos propõem mudanças concretas para reduzir danos e tornar a IA mais justa: parcerias entre desenvolvedores e representantes LGBTQ+, salvaguardas mais fortes contra uso indevido da vigilância e a proibição de sistemas que detetem ou classifiquem o gênero. Recomenda-se também a participação de pessoas LGBTQ+ em todas as fases do desenvolvimento dessas ferramentas.
Palavras difíceis
- treino — processo de ensinar um modelo com dados
- estereótipo — ideia fixa e exagerada sobre um grupoestereótipos
- rotulagem — ação de identificar e classificar dados
- vigilância — observação e controlo de pessoas ou espaços
- heteronormativo — que assume a heterosexualidade como padrão socialheteronormativas
- recolher — juntar ou obter informação de uma fonterecolhidos
- salvaguarda — medida para proteger contra uso indevidosalvaguardas
- monitoramento — observação contínua usando tecnologia para segurança
- detetar — identificar a presença de algo ou alguémdetetem
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- De que forma a inclusão de pessoas LGBTQ+ em todas as fases do desenvolvimento de IA pode alterar os resultados dessas ferramentas?
- Quais são os riscos práticos da utilização de monitoramento biométrico em eventos públicos, segundo o texto?
- Que tipos de salvaguardas práticas poderiam impedir o uso indevido da vigilância com IA?
Artigos relacionados
Sensor vestível detecta anticorpos em 10 minutos
Pesquisadores da Universidade de Pittsburgh criaram um biossensor vestível que detecta anticorpos de vírus em 10 minutos sem punção venosa. O trabalho foi publicado na revista Analytical Chemistry e mede anticorpos no fluido intersticial.
IA e dispositivos vestíveis no controlo do diabetes tipo 2
Uma meta-revisão da University at Buffalo, publicada em NPJ Digital Medicine, analisou 60 estudos sobre IA em dispositivos vestíveis para diabetes tipo 2 e pré-diabetes. Encontrou benefícios e limites e pede estudos maiores e modelos mais transparentes.
Resumos de áudio por IA ajudam, mas têm erros em pesquisas sobre Marte
O serviço NotebookLM do Google transforma artigos científicos em resumos de áudio no estilo podcast que são envolventes, mas também apresentam erros e extrapolações. Os autores recomendam ler o material original e acham o recurso útil, sem substituir a leitura crítica.