Redes sociais, desinformação e riscos reaisCEFR B2
10/11/2025
Adaptado de Safa, Global Voices • CC BY 3.0
Foto de Mariia Shalabaieva, Unsplash
As redes sociais hoje combinam benefícios claros com riscos significativos. Para muitas pessoas marginalizadas, as plataformas são fonte de apoio e mobilização; contudo, o mesmo ecossistema pode amplificar discurso de ódio, desinformação e efeitos nocivos no mundo real. Em janeiro de 2025 Mark Zuckerberg anunciou que a Meta encerraria o seu programa de verificação de fatos por terceiros e adotaria o modelo Community Notes usado no X. A empresa também informou que interromperia algumas políticas de proteção a usuários LGBTQ+. A International Fact-Checking Network descreveu o fim do programa de nove anos como "um retrocesso" e o Alto Comissário Volker Türk alertou para consequências reais do ódio online.
Estudos sobre design de produto mostram que mecanismos que privilegiam engajamento — viralidade, recomendações e otimização — podem favorecer a difusão de conteúdo nocivo. Um trabalho constatou que os 15% de usuários mais habituais do Facebook foram responsáveis por 37% das manchetes falsas estudadas. Relatórios vazados de 2019 e pesquisas subsequentes indicam que algoritmos decidem o que as pessoas veem e são difíceis de corrigir; esclarecimentos raramente alcançam a mesma atenção das falsidades iniciais.
Sistemas de recomendação foram ligados à radicalização: um estudo de 2021 apontou que o algoritmo do TikTok podia levar de vídeos transfóbicos a conteúdos violentos da extrema direita. O YouTube foi descrito como "um motor de radicalização", e problemas foram notados até no YouTube Kids. Antes das eleições alemãs em 2025, pesquisadores observaram feeds inclinados à direita, especialmente no TikTok.
A IA generativa acrescenta novos desafios. Nas eleições de 2024 na Indonésia surgiram avatares digitais gerados por IA, e o ex-candidato Prabowo Subianto usou um amplamente. Um relatório de 2023 da Freedom House advertiu que atores de desinformação estão a usar imagens, áudio e texto gerados por IA, tornando a verdade mais fácil de distorcer e mais difícil de discernir. Na Venezuela, mensagens pró-governo geradas por IA convivem com ameaças a jornalistas e com páginas pequenas ou humorísticas, como "Shrimp Jesus", que podem corroer a confiança e alimentar corretores de dados, com consequências reais para golpes e operações de influência. No fim, o equilíbrio entre poder e risco depende de escolhas de design, das estruturas de poder e de quem controla as ferramentas.
Palavras difíceis
- marginalizado — pessoas excluídas ou com pouca influência socialmarginalizadas
- mobilização — ação coletiva para reivindicar apoio ou mudança
- desinformação — informação falsa usada para enganar pessoas
- verificação — checagem da verdade de uma informação
- retrocesso — avanço negativo; perda de progresso anterior
- engajamento — interesse e participação dos usuários numa plataforma
- algoritmo — conjunto de regras que decide conteúdos mostradosalgoritmos
- radicalização — processo de adoção de ideias extremas e violentas
- generativo — capaz de criar imagens, áudio ou texto novogenerativa
- avatar — representação digital de uma pessoa ou personagemavatares
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Que escolhas de design de plataformas poderiam reduzir os riscos descritos no texto? Dê exemplos e explique.
- Como o uso de IA generativa pode afetar a confiança nas notícias e nas instituições, segundo o artigo?
- De que forma algoritmos e estruturas de poder influenciam quem controla as ferramentas e os riscos online?
Artigos relacionados
Bots miraram ativistas e mídia no Instagram nos Balcãs Ocidentais
Em novembro de 2025, operações coordenadas de bots atacaram contas de ativistas e veículos no Instagram nos Balcãs Ocidentais. Reportagens da Meta.mk, em 16 e 23 de novembro de 2025, descrevem táticas para explorar moderação automática e reduzir visibilidade.
Sensores domésticos e IA para monitorizar pessoas com ELA
Uma equipa da Universidade do Missouri testa sensores domésticos e inteligência artificial para acompanhar alterações de saúde em pessoas com esclerose lateral amiotrófica (ELA). O sistema usa aprendizado de máquina para estimar a pontuação ALSFRS-R e pode alertar clínicos.