LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
Pornô gerado por IA e riscos para pessoas LGBTQ+ — Nível B2 — man in black t-shirt using black laptop computer

Pornô gerado por IA e riscos para pessoas LGBTQ+CEFR B2

2/04/2026

Adaptado de Guest Contributor, Global Voices CC BY 3.0

Foto de franco alva, Unsplash

Nível B2 – Intermediário-avançado
6 min
325 palavras

A inteligência artificial ampliou a produção de imagens e vídeos adultos com qualidade cada vez maior. Em 2025, o Pornhub relatou que "Lesbian" foi sua categoria mais vista e "Transgender" a segunda. As buscas por "AI porn generators" no Google aumentaram, e um site recebeu 8.57 million visitantes em janeiro, segundo registros citados por pesquisadores.

Muitas ferramentas para gerar pornô por IA treinam modelos com grandes conjuntos de dados de conteúdo pré‑existente e depois criam material sob demanda. Pesquisadoras pós‑doutorais como Aurélie Petit descrevem grande parte dessa produção como "mídia não fotorrealista", uma categoria que fica fora de proteções legais claras. Miranda Wei alertou que esses conjuntos de dados podem incluir imagens odiosas ou não consensuais, o que agrava riscos éticos e jurídicos.

Pesquisadores e ativistas apontam danos específicos para pessoas LGBTQ+. Sites como CreateAIShemale oferecem ampla personalização — incluindo idade, partes do corpo, modificadores e 42 opções de "raça", algumas listadas como "duende" ou "pele verde" — e estudos mostram que essas ferramentas podem fetichizar e objetificar mulheres trans. A IA também produz imagens irreais de homens gays; em 2025 o Pornhub relatou buscas como "femboy" e "twink" entre as principais buscas gays, e termos como "cute femboy" tiveram aumento de 79%.

Algumas respostas legais já existem: o Congresso dos EUA aprovou o TAKE IT DOWN Act para proibir publicação de imagens íntimas não consensuais, compartilhar deepfakes é crime em Tennessee, e na Califórnia houve projeto sancionado para combater deepfakes e exigir marca d'água. Especialistas notam ainda aumento no consumo de pornografia e relatos de dependência entre adolescentes. Embora muitos modelos afirmem ter regras de segurança — por exemplo, políticas que proíbem atividades ilícitas e violência sexual — pesquisadores mostram que agentes de má‑fé podem contornar barreiras; além disso, foi revelado que, a partir de dezembro de 2025, o Grok produziu e compartilhou mais de 1.8 million imagens sexualizadas de mulheres.

  • Riscos jurídicos e éticos
  • Danos a pessoas LGBTQ+
  • Limitações das respostas legais e técnicas

Palavras difíceis

  • mídia não fotorrealistaconteúdo gerado que não busca aparência fotográfica real
  • conjunto de dadoscoleção de arquivos usada para treinar modelos
    conjuntos de dados
  • consensualfeito com acordo e permissão da pessoa
    não consensuais
  • fetichizartratar alguém como objeto sexual ou fantasia
  • deepfakeimagem ou vídeo falso gerado por IA
    deepfakes
  • marca d'águasinal digital que identifica a origem da imagem
  • personalizaçãoajuste de características conforme preferência do usuário

Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.

Perguntas para discussão

  • Que limitações legais e técnicas mencionadas no texto parecem mais difíceis de resolver? Explique por quê.
  • Que medidas práticas poderiam reduzir os danos a pessoas LGBTQ+ causados por conteúdo sexual gerado por IA? Dê exemplos.
  • De que maneira a exigência de marca d'água poderia mudar a produção e o consumo de deepfakes, na sua opinião? Explique.

Artigos relacionados