Preocupaciones de la comunidad LGBTQ+ sobre la inteligencia artificialCEFR B2
18 nov 2025
Adaptado de Aaron Spitler, Global Voices • CC BY 3.0
Foto de Igor Omilaev, Unsplash
La presencia de la inteligencia artificial en la vida diaria aumenta y con ella la atención pública. Una encuesta global de Ipsos encontró que el 55 por ciento de los encuestados cree que las soluciones impulsadas por IA ofrecen más beneficios que inconvenientes; al mismo tiempo, la inversión privada en IA se ha disparado y muchas empresas destacan su eficiencia y facilidad de uso. Sin embargo, existe preocupación por los daños que pueden surgir de datos y diseños sesgados.
Las inquietudes son especialmente pronunciadas entre comunidades LGBTQ+. Wired reportó que algunas herramientas de generación de imágenes, como Midjourney, produjeron representaciones reductoras y dañinas cuando se solicitó que mostraran a personas LGBTQ+. Los datos de Internet a menudo contienen estereotipos y los modelos entrenados con esos datos tienden a reproducirlos. La UNESCO examinó supuestos comunes detrás de varios grandes modelos y concluyó que herramientas de uso generalizado como Llama 2 de Meta y GPT-2 de OpenAI mostraban actitudes heteronormativas y generaban contenido negativo sobre personas gays más de la mitad del tiempo en sus simulaciones. Estas conclusiones muestran cómo los datos de entrenamiento y las decisiones de diseño pueden producir daños repetidos.
Los riesgos también incluyen la vigilancia. Forbidden Colours, una ONG belga que defiende los derechos LGBTQ+, describió el funcionamiento de los sistemas de "reconocimiento automático de género" (AGR), que analizan material audiovisual y usan rasgos faciales o patrones vocales para inferir el género. La ONG sostiene que es imposible saber cómo una persona entiende su propio género a partir de esas medidas y que esos sistemas son potencialmente peligrosos. Politico Europe informó que el primer ministro húngaro Viktor OrbE1n autorizó la monitorización biométrica con IA en eventos locales del Orgullo, alegando que protegería a los niños de la "agenda LGBTQ+"; en la práctica, la medida permite vigilar a artistas, activistas y ciudadanos, y las instituciones de la Unión Europea están revisando la política.
Defensores de los derechos piden cambios concretos: asociaciones entre desarrolladores y representantes LGBTQ+, salvaguardas más estrictas contra el uso indebido de la vigilancia, la prohibición de sistemas que detecten o clasifiquen el género y la consulta a personas LGBTQ+ en todas las fases del desarrollo. Estos pasos buscan reducir daños y aumentar la probabilidad de que la IA sea útil y justa para más personas.
Palabras difíciles
- sesgado — que muestra prejuicio o falta de imparcialidadsesgados
- reproducir — volver a crear o expresar algo de nuevoreproducirlos
- vigilancia — observación y control sistemático de personas
- reconocimiento — identificación o detección a partir de datos
- heteronormativo — que considera la heterosexualidad como norma socialheteronormativas
- salvaguarda — medidas para proteger contra daños o abusossalvaguardas
- dispararse — incrementarse en poco tiempo de forma notabledisparado
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Qué riesgos concretos para la privacidad y la seguridad plantean los sistemas de reconocimiento automático de género, según el texto?
- ¿Crees que las asociaciones entre desarrolladores y representantes LGBTQ+ serían suficientes para reducir daños? Explica por qué sí o por qué no.
- Además de las medidas mencionadas en el artículo, ¿qué otras acciones podrían ayudar a que la IA sea más justa para personas LGBTQ+?
Artículos relacionados
Estudio detecta fallos en gestores de contraseñas en la nube
Investigadores de ETH Zurich analizaron Bitwarden, LastPass y Dashlane y encontraron vulnerabilidades que permitían acceder o incluso cambiar contraseñas. Dieron 90 días para corregir y propusieron recomendaciones de seguridad.