Ciberamenazas en la cumbre entre la Unión Africana y la Unión EuropeaCEFR A2
10 dic 2025
Adaptado de Cecilia Maundu, Global Voices • CC BY 3.0
Foto de Storyzangu Hub, Unsplash
Las amenazas digitales fueron un tema central en la cumbre entre la Unión Africana y la Unión Europea. Periodistas de investigación enfrentan software espía, vigilancia y ataques en línea, y Reporters Without Borders dice que el acoso aumenta.
Kenia registró más de 4.5 mil millones de ciberataques en tres meses, lo que muestra el riesgo inmediato para personas e instituciones. Interpol publicó en 2025 un informe sobre amenazas que afectan sectores críticos como sistemas de salud, redes de telecomunicaciones y administración pública. También se destacó la falta de profesionales en ciberseguridad y la necesidad de mejorar la protección, la formación y la inversión a largo plazo.
Palabras difíciles
- amenaza — acto o situación que puede hacer dañoamenazas
- software espía — programa que vigila el ordenador sin permiso
- vigilancia — observación y control de personas o lugares
- ciberataque — ataque por internet contra sistemas o datosciberataques
- periodista — persona que investiga y escribe noticiasPeriodistas
- ciberseguridad — protección de sistemas y datos en internet
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Qué medidas crees que pueden ayudar a proteger a los periodistas que investigan?
- ¿Por qué es importante formar más profesionales en ciberseguridad?
- ¿Cómo puede afectar un ciberataque a personas e instituciones en tu comunidad?
Artículos relacionados
La complejidad del mundo real produce sesgo en la IA
Un estudio de la Universidad de Texas en Austin concluye que una causa importante del sesgo en la inteligencia artificial es la incapacidad para modelar la complejidad del mundo real. Identifica tres factores que aumentan ese riesgo.
Un estudio encuentra sesgos en consejos de IA cuando se revela el autismo
Investigadores de Virginia Tech analizaron cómo cambian las recomendaciones de grandes modelos de lenguaje cuando los usuarios dicen que son autistas. Hallaron que muchas respuestas reflejan estereotipos y piden más transparencia y control en los sistemas de IA.