Preocupaciones de la comunidad LGBTQ+ sobre la inteligencia artificialCEFR B2
18 nov 2025
Adaptado de Aaron Spitler, Global Voices • CC BY 3.0
Foto de Igor Omilaev, Unsplash
La presencia de la inteligencia artificial en la vida diaria aumenta y con ella la atención pública. Una encuesta global de Ipsos encontró que el 55 por ciento de los encuestados cree que las soluciones impulsadas por IA ofrecen más beneficios que inconvenientes; al mismo tiempo, la inversión privada en IA se ha disparado y muchas empresas destacan su eficiencia y facilidad de uso. Sin embargo, existe preocupación por los daños que pueden surgir de datos y diseños sesgados.
Las inquietudes son especialmente pronunciadas entre comunidades LGBTQ+. Wired reportó que algunas herramientas de generación de imágenes, como Midjourney, produjeron representaciones reductoras y dañinas cuando se solicitó que mostraran a personas LGBTQ+. Los datos de Internet a menudo contienen estereotipos y los modelos entrenados con esos datos tienden a reproducirlos. La UNESCO examinó supuestos comunes detrás de varios grandes modelos y concluyó que herramientas de uso generalizado como Llama 2 de Meta y GPT-2 de OpenAI mostraban actitudes heteronormativas y generaban contenido negativo sobre personas gays más de la mitad del tiempo en sus simulaciones. Estas conclusiones muestran cómo los datos de entrenamiento y las decisiones de diseño pueden producir daños repetidos.
Los riesgos también incluyen la vigilancia. Forbidden Colours, una ONG belga que defiende los derechos LGBTQ+, describió el funcionamiento de los sistemas de "reconocimiento automático de género" (AGR), que analizan material audiovisual y usan rasgos faciales o patrones vocales para inferir el género. La ONG sostiene que es imposible saber cómo una persona entiende su propio género a partir de esas medidas y que esos sistemas son potencialmente peligrosos. Politico Europe informó que el primer ministro húngaro Viktor OrbE1n autorizó la monitorización biométrica con IA en eventos locales del Orgullo, alegando que protegería a los niños de la "agenda LGBTQ+"; en la práctica, la medida permite vigilar a artistas, activistas y ciudadanos, y las instituciones de la Unión Europea están revisando la política.
Defensores de los derechos piden cambios concretos: asociaciones entre desarrolladores y representantes LGBTQ+, salvaguardas más estrictas contra el uso indebido de la vigilancia, la prohibición de sistemas que detecten o clasifiquen el género y la consulta a personas LGBTQ+ en todas las fases del desarrollo. Estos pasos buscan reducir daños y aumentar la probabilidad de que la IA sea útil y justa para más personas.
Palabras difíciles
- sesgado — que muestra prejuicio o falta de imparcialidadsesgados
- reproducir — volver a crear o expresar algo de nuevoreproducirlos
- vigilancia — observación y control sistemático de personas
- reconocimiento — identificación o detección a partir de datos
- heteronormativo — que considera la heterosexualidad como norma socialheteronormativas
- salvaguarda — medidas para proteger contra daños o abusossalvaguardas
- dispararse — incrementarse en poco tiempo de forma notabledisparado
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Qué riesgos concretos para la privacidad y la seguridad plantean los sistemas de reconocimiento automático de género, según el texto?
- ¿Crees que las asociaciones entre desarrolladores y representantes LGBTQ+ serían suficientes para reducir daños? Explica por qué sí o por qué no.
- Además de las medidas mencionadas en el artículo, ¿qué otras acciones podrían ayudar a que la IA sea más justa para personas LGBTQ+?
Artículos relacionados
Dudas sobre los corredores para elefantes en Sri Lanka
Expertos cuestionan si los cuatro corredores propuestos reducirán el grave conflicto entre humanos y elefantes en Sri Lanka. El gobierno planea declarar áreas el 5 de junio, pero conservacionistas piden medidas basadas en la ciencia.
La IA para frenar la publicidad de tabaco dirigida a jóvenes
En Dublín, expertos dijeron que la inteligencia artificial puede ayudar a impedir que las compañías de tabaco publiquen anuncios para jóvenes en redes sociales. Se mostraron ejemplos de herramientas que ya identifican y quitan contenidos y datos sobre medidas de salud.
Sofa9a: migración de Venezuela a Saravena
Sofa9a, miembro de Mi Historia, llegó a Colombia con su madre el 13 de enero de 2021. En Colombia enfrentaron problemas de salud, trabajo informal, discriminación y luego obtuvieron el Permiso de Protección Temporal en 2022, aunque solo la solicitud de Sofa9a fue aprobada.