La IA y la confianza cívica en Hong KongCEFR B2
27 abr 2026
Adaptado de Nishant Shah, Global Voices • CC BY 3.0
Foto de Markus Winkler, Unsplash
La serie Spotlight de abril de 2026, "Perspectivas humanas sobre la IA", destaca cómo la inteligencia artificial reconfigura la vida cívica en Hong Kong. Enseño y vivo en un campus público y cada inicio de curso la ciudad se llena de advertencias sobre estafas: carteles, correos electrónicos, avisos a estudiantes, anuncios en estaciones del MTR y titulares que alertan sobre riesgos digitales.
Un caso ilustrativo fue el de un empleado que, tras recibir una videollamada falsa generada por IA con el supuesto director financiero de su empresa, transfirió millones. Ante eso, las autoridades repiten que la IA está aquí y que la sociedad no está totalmente preparada. La IA generativa cambia el problema: ya no es solo la circulación de rumores, sino la plausibilidad. Contenidos que no son claramente falsos ni confiablemente verdaderos se vuelven comunes, lo que provoca fatiga cognitiva y una sensación de rendición.
La respuesta incluye herramientas técnicas —por ejemplo scameter+—, que las autoridades describen como usar IA para combatir IA, y una proliferación de sistemas de verificación que desplazan la confianza de prácticas sociales hacia soluciones técnicas. Además, la IA entra en interfaces públicas ordinarias, como:
- sistemas de consultas y quioscos de servicio
- procesos administrativos y herramientas de traducción
- pasarelas de pago y asistencia automatizada en la gestión urbana
Aunque estas herramientas prometen rapidez y eficiencia, las audiencias públicas sobre el incendio residencial de Tai Po muestran que la confianza cívica exige entender cómo se toman las decisiones, dónde impugnar errores y cómo se distribuye la responsabilidad. En el Digital Narratives Studio planteamos otra pregunta: no solo cómo la IA mejora servicios, sino qué relaciones cívicas deben sostener esos servicios. Practicamos una infraestructura relacional mediante reuniones pequeñas e informales donde la gente nombra encuentros, compara experiencias, comparte interpretaciones y prueba el juicio conjuntamente, junto con lenguaje y prácticas que hagan a la IA responsable y abierta al cambio. Este trabajo desde abajo es lento y difícil de escalar, pero busca reconstruir condiciones para que los públicos hagan sentido en común más allá de limitarse a verificar qué es real.
Palabras difíciles
- reconfigurar — cambiar la organización o el funcionamiento de algoreconfigura
- plausibilidad — aspecto que hace que algo parezca creíble
- fatiga cognitiva — agotamiento mental por procesar demasiada información
- IA generativa — modelo de inteligencia artificial que crea contenido nuevo
- verificación — proceso para comprobar si algo es verdadero
- infraestructura — conjunto de elementos que sostienen un sistema
- responsabilidad — obligación de responder por decisiones o errores
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Qué consecuencias puede tener desplazar la confianza de prácticas sociales hacia soluciones técnicas? Da ejemplos concretos.
- ¿Cómo podrían las reuniones pequeñas e informales ayudar a que la IA sea más responsable y abierta al cambio?
- Según el texto, ¿qué problemas podrían surgir al usar IA para combatir IA?
Artículos relacionados
Riesgo de ciberataques por tensiones entre Estados Unidos e Irán
Las tensiones entre Estados Unidos e Irán aumentan las dudas sobre posibles ciberataques contra infraestructura. Un experto de Syracuse University analiza riesgos en agua, redes eléctricas y el papel futuro de la computación cuántica.
La atención cambia en ciclos de siete a diez veces por segundo
Científicos informan que la atención humana oscila aproximadamente siete a diez veces por segundo. Un estudio con registros EEG muestra por qué las notificaciones distraen y sugiere implicaciones para la concentración y trastornos como el TDAH.
Redes sociales y venta ilegal de carne de monte
Un estudio advierte que las redes sociales podrían aumentar la venta ilegal de carne de monte y amenazar la biodiversidad. Los investigadores analizaron anuncios en Facebook y describen tácticas que dificultan la detección y la regulación.