Pornô gerado por IA e riscos para pessoas LGBTQ+CEFR B2
2/04/2026
Adaptado de Guest Contributor, Global Voices • CC BY 3.0
Foto de franco alva, Unsplash
A inteligência artificial ampliou a produção de imagens e vídeos adultos com qualidade cada vez maior. Em 2025, o Pornhub relatou que "Lesbian" foi sua categoria mais vista e "Transgender" a segunda. As buscas por "AI porn generators" no Google aumentaram, e um site recebeu 8.57 million visitantes em janeiro, segundo registros citados por pesquisadores.
Muitas ferramentas para gerar pornô por IA treinam modelos com grandes conjuntos de dados de conteúdo pré‑existente e depois criam material sob demanda. Pesquisadoras pós‑doutorais como Aurélie Petit descrevem grande parte dessa produção como "mídia não fotorrealista", uma categoria que fica fora de proteções legais claras. Miranda Wei alertou que esses conjuntos de dados podem incluir imagens odiosas ou não consensuais, o que agrava riscos éticos e jurídicos.
Pesquisadores e ativistas apontam danos específicos para pessoas LGBTQ+. Sites como CreateAIShemale oferecem ampla personalização — incluindo idade, partes do corpo, modificadores e 42 opções de "raça", algumas listadas como "duende" ou "pele verde" — e estudos mostram que essas ferramentas podem fetichizar e objetificar mulheres trans. A IA também produz imagens irreais de homens gays; em 2025 o Pornhub relatou buscas como "femboy" e "twink" entre as principais buscas gays, e termos como "cute femboy" tiveram aumento de 79%.
Algumas respostas legais já existem: o Congresso dos EUA aprovou o TAKE IT DOWN Act para proibir publicação de imagens íntimas não consensuais, compartilhar deepfakes é crime em Tennessee, e na Califórnia houve projeto sancionado para combater deepfakes e exigir marca d'água. Especialistas notam ainda aumento no consumo de pornografia e relatos de dependência entre adolescentes. Embora muitos modelos afirmem ter regras de segurança — por exemplo, políticas que proíbem atividades ilícitas e violência sexual — pesquisadores mostram que agentes de má‑fé podem contornar barreiras; além disso, foi revelado que, a partir de dezembro de 2025, o Grok produziu e compartilhou mais de 1.8 million imagens sexualizadas de mulheres.
- Riscos jurídicos e éticos
- Danos a pessoas LGBTQ+
- Limitações das respostas legais e técnicas
Palavras difíceis
- mídia não fotorrealista — conteúdo gerado que não busca aparência fotográfica real
- conjunto de dados — coleção de arquivos usada para treinar modelosconjuntos de dados
- consensual — feito com acordo e permissão da pessoanão consensuais
- fetichizar — tratar alguém como objeto sexual ou fantasia
- deepfake — imagem ou vídeo falso gerado por IAdeepfakes
- marca d'água — sinal digital que identifica a origem da imagem
- personalização — ajuste de características conforme preferência do usuário
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Que limitações legais e técnicas mencionadas no texto parecem mais difíceis de resolver? Explique por quê.
- Que medidas práticas poderiam reduzir os danos a pessoas LGBTQ+ causados por conteúdo sexual gerado por IA? Dê exemplos.
- De que maneira a exigência de marca d'água poderia mudar a produção e o consumo de deepfakes, na sua opinião? Explique.