IA y deepfakes sexuales en BrasilCEFR B2
28 abr 2026
Adaptado de Fernanda Canofre, Global Voices • CC BY 3.0
Foto de KOBU Agency, Unsplash
En Brasil se han documentado varios incidentes en los que jóvenes usaron herramientas de inteligencia artificial para crear y difundir imágenes sexuales sin consentimiento. En noviembre de 2023 familias en Río de Janeiro denunciaron que adolescentes habían generado y compartido desnudos creados con IA. En septiembre de 2024 hubo sospechas de un grupo en Bahía y en Mato Grosso alumnos fueron expulsados después de difundir imágenes generadas por IA de una profesora y estudiantes en comunidades de pornografía en línea.
Estos casos aparecen en una nota técnica de Internetlab publicada a principios de abril de 2026. El documento analiza la violencia en línea contra mujeres y niñas y alerta sobre sesgos en los conjuntos de entrenamiento que pueden hacer que las herramientas de IA reproduzcan o amplifiquen la violencia de género. Un estudio citado por Internetlab (Security Hero) señala que los deepfakes con contenido sexual representan el 98 por ciento de los videos deepfake en línea, que el 99 por ciento de las víctimas son mujeres y que hubo un aumento del 464 por ciento entre 2022 y 2023.
Internetlab recomienda medidas concretas: integrar reglas de seguridad desde el diseño, considerar los deepfakes sexuales no consentidos como un «riesgo excesivo» y prohibir su uso, y crear directrices para la alfabetización digital y normas más claras sobre la responsabilidad de las plataformas. El informe también menciona que en 2025 el Tribunal Supremo Federal dejó sin efecto parcialmente un artículo del Marco Civil da Internet, lo que impulsó reclamos de nueva regulación. De cara a la temporada electoral, la directora Clarice Tavares y el centro alertan sobre el uso de herramientas y chatbots como Gemini, ChatGPT y Claude para reproducir sesgos de género y violencia política, y advierten que aún no está claro con qué rapidez las nuevas leyes o normas podrán detener estos daños.
- Casos en Río, Bahía y Mato Grosso.
- Informe de Internetlab, abril de 2026.
- Recomendaciones: seguridad, prohibición y educación.
Palabras difíciles
- deepfake — imagen o video alterado digitalmente para engañardeepfakes
- sesgo — tendencia que produce distorsión en datossesgos
- alfabetización digital — habilidad para usar y comprender tecnologías digitales
- conjunto de entrenamiento — colección de datos usada para enseñar modelosconjuntos de entrenamiento
- violencia de género — violencia dirigida por razón de sexo o género
- responsabilidad — obligación de responder por acciones o daños
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Qué medidas concretas podrían tomar las plataformas para reducir la difusión de deepfakes sexuales no consentidos? Explica razones.
- ¿Qué papel deberían tener las escuelas y las familias en la alfabetización digital para prevenir este tipo de daños entre adolescentes?
- ¿Crees que la ley puede seguir el ritmo de la tecnología en estos casos? Da ejemplos o argumentos basados en el texto.
Artículos relacionados
Riesgo de ciberataques por tensiones entre Estados Unidos e Irán
Las tensiones entre Estados Unidos e Irán aumentan las dudas sobre posibles ciberataques contra infraestructura. Un experto de Syracuse University analiza riesgos en agua, redes eléctricas y el papel futuro de la computación cuántica.
Cómo las películas románticas afectan las expectativas de pareja
Dos expertas de Virginia Tech alertan que los filmes románticos, desde los clásicos de Disney hasta las películas de Hallmark, pueden crear expectativas poco realistas y reducir la diversidad de historias sobre el amor.
Un estudio conecta la biología celular con las redes cerebrales
Un estudio publicado en Nature Communications conecta datos de imágenes, genética y moléculas para mostrar cómo la biología celular produce las grandes redes cerebrales. El hallazgo puede cambiar el estudio de la cognición y trastornos mentales.