Redes sociais, desinformação e riscos reaisCEFR B2
10/11/2025
Adaptado de Safa, Global Voices • CC BY 3.0
Foto de Mariia Shalabaieva, Unsplash
As redes sociais hoje combinam benefícios claros com riscos significativos. Para muitas pessoas marginalizadas, as plataformas são fonte de apoio e mobilização; contudo, o mesmo ecossistema pode amplificar discurso de ódio, desinformação e efeitos nocivos no mundo real. Em janeiro de 2025 Mark Zuckerberg anunciou que a Meta encerraria o seu programa de verificação de fatos por terceiros e adotaria o modelo Community Notes usado no X. A empresa também informou que interromperia algumas políticas de proteção a usuários LGBTQ+. A International Fact-Checking Network descreveu o fim do programa de nove anos como "um retrocesso" e o Alto Comissário Volker Türk alertou para consequências reais do ódio online.
Estudos sobre design de produto mostram que mecanismos que privilegiam engajamento — viralidade, recomendações e otimização — podem favorecer a difusão de conteúdo nocivo. Um trabalho constatou que os 15% de usuários mais habituais do Facebook foram responsáveis por 37% das manchetes falsas estudadas. Relatórios vazados de 2019 e pesquisas subsequentes indicam que algoritmos decidem o que as pessoas veem e são difíceis de corrigir; esclarecimentos raramente alcançam a mesma atenção das falsidades iniciais.
Sistemas de recomendação foram ligados à radicalização: um estudo de 2021 apontou que o algoritmo do TikTok podia levar de vídeos transfóbicos a conteúdos violentos da extrema direita. O YouTube foi descrito como "um motor de radicalização", e problemas foram notados até no YouTube Kids. Antes das eleições alemãs em 2025, pesquisadores observaram feeds inclinados à direita, especialmente no TikTok.
A IA generativa acrescenta novos desafios. Nas eleições de 2024 na Indonésia surgiram avatares digitais gerados por IA, e o ex-candidato Prabowo Subianto usou um amplamente. Um relatório de 2023 da Freedom House advertiu que atores de desinformação estão a usar imagens, áudio e texto gerados por IA, tornando a verdade mais fácil de distorcer e mais difícil de discernir. Na Venezuela, mensagens pró-governo geradas por IA convivem com ameaças a jornalistas e com páginas pequenas ou humorísticas, como "Shrimp Jesus", que podem corroer a confiança e alimentar corretores de dados, com consequências reais para golpes e operações de influência. No fim, o equilíbrio entre poder e risco depende de escolhas de design, das estruturas de poder e de quem controla as ferramentas.
Palavras difíceis
- marginalizado — pessoas excluídas ou com pouca influência socialmarginalizadas
- mobilização — ação coletiva para reivindicar apoio ou mudança
- desinformação — informação falsa usada para enganar pessoas
- verificação — checagem da verdade de uma informação
- retrocesso — avanço negativo; perda de progresso anterior
- engajamento — interesse e participação dos usuários numa plataforma
- algoritmo — conjunto de regras que decide conteúdos mostradosalgoritmos
- radicalização — processo de adoção de ideias extremas e violentas
- generativo — capaz de criar imagens, áudio ou texto novogenerativa
- avatar — representação digital de uma pessoa ou personagemavatares
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Que escolhas de design de plataformas poderiam reduzir os riscos descritos no texto? Dê exemplos e explique.
- Como o uso de IA generativa pode afetar a confiança nas notícias e nas instituições, segundo o artigo?
- De que forma algoritmos e estruturas de poder influenciam quem controla as ferramentas e os riscos online?
Artigos relacionados
Deslocamento à direita entre jovens homens na Coreia do Sul
Estudos e eleições mostram que muitos homens jovens na Coreia do Sul se tornaram mais conservadores, criando uma grande diferença de opinião entre os géneros. Apesar disso, a maioria desses jovens afirma respeitar as regras democráticas.
Andaime sem materiais animais cria tecido parecido com o cérebro
Pesquisadores cultivaram tecido funcional semelhante ao cérebro sem usar materiais de origem animal nem revestimentos. O trabalho, liderado por Iman Noshadi, usa um andaime de PEG poroso que permite testar medicamentos e reduzir o uso de animais.