Como a IA está a mudar a confiança cívica em Hong KongCEFR B1
27/04/2026
Adaptado de Nishant Shah, Global Voices • CC BY 3.0
Foto de Markus Winkler, Unsplash
A chegada da IA generativa mudou a natureza da desinformação. Em Hong Kong, avisos sobre golpes multiplicam-se nas universidades e na cidade, porque conteúdos plausíveis — e não apenas falsidades óbvias — passam a circular com facilidade. Um episódio notório envolveu um deepfake em chamada de vídeo que levou um funcionário a transferir milhões.
Como resposta, surgem sistemas técnicos, incluindo o scameter+, e as autoridades descrevem este cenário como um novo terreno em que a IA terá de ser usada para combater a IA. Essa proliferação de ferramentas desloca parte da confiança das práticas sociais para sistemas que afirmam dizer o que é autêntico.
No Digital Narratives Studio, a pergunta foi reformulada: em vez de só melhorar serviços, perguntar que relações cívicas esses serviços devem apoiar. Pratica-se a "relational infrastructuring": encontros pequenos e informais para comparar experiências, partilhar interpretações e testar juízos em conjunto, e combinar isso com linguagem e práticas que tornem a IA responsabilizável.
Esse trabalho básico é lento e difícil de escalar, mas visa reconstruir condições relacionais para que os públicos façam sentido em conjunto, em vez de apenas verificar o que é real.
Palavras difíceis
- desinformação — informação falsa ou enganosa difundida ao público
- deepfake — vídeo ou áudio falso criado por IA
- proliferação — aumento rápido na quantidade ou número
- autêntico — real, verdadeiro, que não é falso
- responsabilizável — que admite prestação de contas por ações
- prática — ação habitual ou forma de fazer algopráticas
- partilhar — dar ou mostrar informação a outras pessoas
- encontro — reunião entre pessoas para conversarencontros
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Você concorda que usar IA para combater a IA é uma solução eficaz? Por quê?
- Como encontros pequenos e informais podem ajudar pessoas a entender conteúdos suspeitos? Dê exemplos simples.
- Que combinação de sistemas técnicos e práticas sociais você acha importante para reduzir golpes online?
Artigos relacionados
Jornalistas pedem ajuda contra notícias falsas de IA
Representantes de países de baixa e média renda, no Fórum Belt and Road em Ganzhou, pediram a um grupo de jornalistas chinês apoio para combater notícias falsas geradas por inteligência artificial e pressionar plataformas a rotular esse conteúdo.
Direitos humanos e inteligência artificial
Defende‑se que a inteligência artificial deve ser construída, usada e regulada com base nos direitos humanos. O texto traça a história desses direitos e propõe princípios para proteger vida, igualdade, expressão, serviços essenciais e privacidade.
IA transforma cuidados de saúde na África subsaariana
Ferramentas de inteligência artificial começam a mudar o diagnóstico e a gestão de doenças em partes da África subsaariana. Pilotos no Quénia e em outros países mostram reduções em tratamentos errados e tempos de espera, mas existem riscos e necessidades de regulação.
Adolescentes em Hong Kong recorrem a chatbots de IA para apoio emocional
Relatório de 12 de outubro de 2025 mostra que jovens usam chatbots como companhia e aconselhamento. Especialistas alertam para riscos, processos legais e a necessidade de apoio humano. Alguns desenvolvedores tentam criar ferramentas mais seguras.