Hija Kamran: la inteligencia artificial no es neutralCEFR B2
21 abr 2026
Adaptado de Guest Contributor, Global Voices • CC BY 3.0
Foto de Marija Zaric, Unsplash
Este texto, parte de la serie «Don’t ask AI, ask a peer» y del Spotlight de Global Voices de abril de 2026, recoge la reflexión de Hija Kamran, editora principal de GenderIT.org y estratega de incidencia en el Programa de Derechos de las Mujeres de APC. Kamran sostiene que la inteligencia artificial no es neutral porque la diseñan actores con determinadas cosmovisiones y porque los datos de entrenamiento provienen de internet y registros públicos que contienen exclusión, racismo, sexismo y desigualdad económica. Al aprender de esos datos, los sistemas pueden codificar y amplificar daños previos.
Además, los incentivos corporativos —lucro, accionistas y objetivos de crecimiento— condicionan el desarrollo y despliegue de la IA, determinan qué problemas se priorizan y aceleran lanzamientos que pueden afectar tierras, saberes y vidas. La autora emplea el término «daños colaterales» para describir a las personas perjudicadas por esa carrera y critica la falta de transparencia, ejemplificada en la frase atribuida a Mark Zuckerberg: «Senador, nosotros ponemos anuncios», y en la respuesta de un representante que remitió a los términos de servicio.
Kamran alerta sobre la deshumanización en contextos militarizados y recuerda que la IA no entiende contexto, historia ni responsabilidad: produce salidas basadas en probabilidades y puede imitar comportamientos humanos sin sentir ni cuidar. Aboga por un enfoque de derechos humanos que traslade la rendición de cuentas hacia quienes detentan el poder, por escepticismo desde las primeras fases de desarrollo y por preguntar, entre otras cosas:
- ¿Quién construyó el sistema?
- ¿Cómo funciona el sistema?
- ¿Quién se beneficia de su uso?
Palabras difíciles
- cosmovisión — conjunto de creencias y valores sobre el mundocosmovisiones
- entrenamiento — proceso de enseñar datos al sistema
- codificar — convertir información en reglas o patrones
- amplificar — hacer más fuertes o visibles efectos existentes
- incentivo — motivación económica o interés para actuarincentivos
- daño colateral — perjuicio no intencional a personas o bienesdaños colaterales
- rendición de cuentas — obligación de responder por decisiones y actos
- deshumanización — trato que niega dignidad o empatía humana
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Qué consecuencias prácticas pueden tener los "daños colaterales" mencionados en el texto para comunidades locales?
- ¿Cómo podría aplicarse un enfoque de derechos humanos al diseño y despliegue de sistemas de IA en tu entorno?
- De las preguntas que propone Kamran, ¿cuál te parece más importante y por qué?
Artículos relacionados
Estudio de Notre Dame: la publicidad en televisión tiene menor efecto
Una investigación de la University of Notre Dame encuentra que la publicidad en televisión lineal es mucho menos efectiva de lo que creen los anunciantes. El estudio usa datos de televisores LG y compras en apps de comida.
IA para mejorar datos sobre causas de muerte en países pobres
Investigadores presentaron CODA, una herramienta de inteligencia artificial para obtener datos más precisos sobre las causas de muerte en países de bajos ingresos. El proyecto de tres años está financiado por la Gates Foundation y empezará ensayos en septiembre.
IA ayuda a detectar melanoma con imágenes 3D
Investigadores de la University of Missouri prueban si la inteligencia artificial puede ayudar a detectar el melanoma mediante el análisis de fotografías 3D de la piel. La IA sería una herramienta de apoyo para identificar casos que requieren atención médica.