IA y porno: riesgos y leyesCEFR B2
2 abr 2026
Adaptado de Guest Contributor, Global Voices • CC BY 3.0
Foto de franco alva, Unsplash
La IA está transformando la producción de imágenes y vídeos sexuales; muchas herramientas usan enormes colecciones de contenido existente para entrenar modelos que luego generan material nuevo bajo demanda. Investigadores como Aurélie Petit describen gran parte del material generado como "medios no fotorrealistas", un término que muchas plataformas y leyes no cubren con claridad, y Miranda Wei advierte que los conjuntos de datos pueden contener imágenes de odio o material no consentido.
El impacto es notable en comunidades LGBTQ+: el porno trans y gay puede alimentar prejuicios y tropos dañinos. Sitios como CreateAIShemale permiten una personalización amplia, con ajustes de edad, partes del cuerpo, modificadores y 42 opciones de "race" que incluyen términos como "goblin" o "green skin"; académicos sostienen que esto fetichiza y cosifica a mujeres trans y puede celebrar la violencia.
Hay respuestas legales y técnicas: en 2025 Pornhub reportó categorías populares y búsquedas específicas, mientras UNICEF informó en 2026 que en 11 países al menos 1.2 million children dijeron que sus imágenes fueron manipuladas en deepfakes sexuales el último año. Existen leyes como el TAKE IT DOWN Act y normas estatales en Tennessee y California (esta última exige marcas de agua), pero muchas situaciones siguen en una zona gris. Además, aunque modelos comerciales proclaman reglas de seguridad —por ejemplo, las políticas de ChatGPT prohíben actividades ilícitas y violencia sexual—, los expertos advierten que actores de mala fe pueden eludir salvaguardias; desde diciembre de 2025 se reveló que Grok produjo y compartió más de 1.8 million sexualized images of women.
Palabras difíciles
- entrenar — usar ejemplos para enseñar modelos informáticos
- deepfake — imagen o vídeo falso creado por IAdeepfakes
- fetichizar — tratar a alguien como objeto sexualfetichiza
- cosificar — ver a una persona solo como objetocosifica
- salvaguardia — medida para proteger de dañossalvaguardias
- marca de agua — imagen visible o invisible que identificamarcas de agua
- zona gris — situación legal o moral poco clara
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Qué medidas legales o técnicas crees que serían más efectivas para proteger a personas cuya imagen puede ser manipulada? Explica por qué.
- ¿Cómo pueden afectar a comunidades trans y gay las opciones de personalización y las categorías mencionadas en el texto? Da ejemplos.
- ¿Qué riesgos presentan las plataformas comerciales que dicen tener reglas de seguridad, según el artículo? Describe posibles consecuencias.
Artículos relacionados
IA para mejorar el acceso a la salud sexual en América Latina
Grupos e investigadores en América Latina usan inteligencia artificial para ofrecer información sobre salud sexual y reproductiva a jóvenes y comunidades marginadas. Proyectos en Perú y Argentina buscan reducir barreras y enfrentan retos como el sesgo de datos.
Nuevo método mejora la ecografía para diferenciar masas mamarias
Investigadores desarrollan un método de procesamiento de ultrasonido que distingue quistes con líquido de masas sólidas en ecografías. En pruebas clínicas, la técnica aumentó la identificación correcta de las masas y recibió financiación federal.
Nueva técnica para medir la viscosidad de la sangre
Investigadores de la Universidad de Missouri han desarrollado una tecnología no invasiva para monitorizar la viscosidad sanguínea en tiempo real. La medida puede ayudar en enfermedades como la anemia falciforme y facilitar futuros ensayos clínicos.
Molécula guarda energía solar y la libera como calor
Investigadores presentan la pirimidona, una molécula que captura luz solar, la almacena en enlaces químicos y libera calor cuando se activa. Tiene alta densidad energética y podría usarse para calefacción y agua caliente doméstica y de campamento.