La IA generativa y la nueva desinformaciónCEFR B2
14 nov 2025
Adaptado de Metamorphosis Foundation, Global Voices • CC BY 3.0
Foto de Hartono Creative Studio, Unsplash
La naturaleza de la injerencia extranjera está cambiando por la llegada de la IA generativa, según explicó Laura Jasper del HCSS en una entrevista del 12 de noviembre de 2025, republicada bajo un acuerdo con Global Voices y Metamorphosis Foundation. Jasper describe tres cambios clave: mayor velocidad en la difusión, escala para repetir mensajes ampliamente y personalización para adaptar contenidos a grupos específicos.
En materia de atribución, Jasper sostiene que identificar con certeza al actor detrás de campañas complejas es menos frecuente; ahora se trabaja por probabilidades, porque los adversarios usan intermediarios, operaciones de falsa bandera y herramientas comerciales, incluida la IA. Los analistas deben asignar niveles de confianza (baja, media o alta) y publicar la base de sus pruebas para preservar la credibilidad y construir conocimiento compartido.
Los estudios del HCSS en Europa y la región del Indo-Pacífico muestran una vulnerabilidad común vinculada a la dependencia de plataformas comerciales y a fracturas de la confianza social, como la polarización y la baja confianza institucional. Para medir el éxito de una campaña, Jasper recomienda definir un estado final observable en el comportamiento —por ejemplo una reducción de la participación electoral o un aumento de la asistencia a protestas— y usar líneas base y contrahechos claros.
Para vincular exposición con acción, propone combinar datos cuantitativos (encuestas, datos de movilidad, registros de transacciones o de participación) con datos cualitativos (entrevistas y grupos focales). Jasper citó el estudio "Empezar por el final: Medición del efecto de la influencia sobre el comportamiento en operaciones militares" como base para este enfoque. Sobre respuestas, rechazó aconsejar métodos fuera de la ley y recomendó un compromiso amplio en toda la sociedad: actores locales, como constructores de comunidad y periodistas de investigación, deben ayudar a reconstruir la confianza con respuestas más granulares en las comunidades.
Palabras difíciles
- injerencia — intervención o influencia de otro país
- IA generativa — tipo de inteligencia artificial que crea contenido
- atribución — identificación del responsable de una operación
- falsa bandera — operación que oculta al verdadero autor
- línea base — medida inicial para comparar cambios posterioreslíneas base
- contrahecho — escenario alternativo que muestra otro resultadocontrahechos
- polarización — división fuerte entre grupos en la sociedad
- cuantitativo — relacionado con números y medidascuantitativos
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Qué riesgos y efectos puede tener la personalización de mensajes con IA generativa en la confianza social? Da ejemplos y razones basadas en el texto.
- Según el artículo, ¿qué papel pueden desempeñar los actores locales y los periodistas de investigación para responder a la injerencia? Explica con ejemplos.
- ¿Qué dificultades puede implicar trabajar "por probabilidades" en la atribución de campañas y cómo puede afectar a la credibilidad de los analistas?
Artículos relacionados
Microbios permiten saber la edad de las heces de termitas
Un estudio propone usar los microbios y su ADN en los pellets de termitas para distinguir excremento reciente de viejo. El método podría ofrecer una prueba rápida en el lugar para detectar infestaciones y evitar tratamientos innecesarios.
Muchos no tienen una conexión a internet decente
Un informe dice que una conexión a internet decente está fuera del alcance de la mayoría en países de ingresos bajos y medios. La «conectividad significativa» incluye 4G, teléfono inteligente y uso diario en el hogar, la escuela o el trabajo.
Hacer más difícil compartir para frenar la desinformación
Investigadores proponen añadir una pausa breve y mensajes de aprendizaje antes de compartir en redes sociales. Un modelo informático sugiere que esta fricción, y sobre todo combinada con un breve cuestionario, puede reducir la difusión de desinformación.
Sensores e inteligencia artificial para vigilar la salud en la ELA
La University of Missouri prueba sensores domésticos con inteligencia artificial para detectar cambios de salud en personas con esclerosis lateral amiotrófica. El sistema busca avisar a los clínicos y apoyar decisiones como ajustes de tratamiento.