Repensar lo humano en la inteligencia artificialCEFR B1
16 abr 2026
Adaptado de Guest Contributor, Global Voices • CC BY 3.0
Foto de Steve A Johnson, Unsplash
Xonorika Kira sostiene que la expresión «centrar lo humano» puede ocultar una idea limitada de lo humano que ha dejado fuera conocimientos animales, ecológicos, ancestrales y espirituales. Señala que esa visión se ha moldeado por la supremacía blanca, el patriarcado, el capacitismo y la cisheteronormatividad.
Además, Kira explica que la frontera entre lo natural y lo artificial ha servido para marcar como "antinatural" a personas con cuerpos, géneros o capacidades diferentes. Advierte que reafirmar lo humano puede reproducir exclusiones.
Propone expandir cómo nos relacionamos con la inteligencia, reconociendo la conciencia y el cuidado entre especies, sistemas y tecnologías. También plantea construir conjuntos de datos situados, usar modelos más pequeños y lentos, y recuperar tecnología y datos extraídos sin consentimiento.
Palabras difíciles
- supremacía — idea de superioridad de un grupo sobre otros
- patriarcado — sistema social dominado por hombres
- capacitismo — prejuicio contra personas con discapacidad
- cisheteronormatividad — norma que favorece identidades cis y heterosexuales
- antinatural — considerado fuera de la naturaleza o norma
- reafirmar — volver a declarar con más fuerza una idea
- situado — ubicado en un contexto o perspectiva concretasituados
- consentimiento — permiso explícito para usar algo o datos
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Cómo podríamos incluir conocimientos ancestrales, ecológicos o animales al diseñar tecnología en tu comunidad?
- ¿Qué ventajas y qué desventajas ves en usar modelos más pequeños y lentos en lugar de modelos grandes?
- ¿Por qué es importante recuperar tecnología y datos que se obtuvieron sin consentimiento?
Artículos relacionados
Un estudio encuentra sesgos en consejos de IA cuando se revela el autismo
Investigadores de Virginia Tech analizaron cómo cambian las recomendaciones de grandes modelos de lenguaje cuando los usuarios dicen que son autistas. Hallaron que muchas respuestas reflejan estereotipos y piden más transparencia y control en los sistemas de IA.
Mejorar la seguridad en modelos de lenguaje
Investigadores de North Carolina State University estudiaron cómo mejorar el alineamiento de seguridad en modelos de lenguaje grande. Identificaron neuronas clave y probaron congelarlas al afinar para reducir salidas inseguras sin perder rendimiento.
Informe: alianza de grandes empresas limita a agricultores
Un informe de IPES-Food, publicado el miércoles (25 February), alerta que la estrecha alianza entre grandes empresas agrícolas y tecnológicas dificulta el acceso de agricultores de pequeña escala a herramientas digitales modernas.
IA mejora pronósticos del monzón en India y proyecto alcanzará 30 países
Herramientas de IA ayudaron a pronosticar el monzón en India. NeuralGCM dio avisos cuatro semanas antes y llegó a 38 millones de agricultores; la iniciativa planea ampliar su alcance a 30 países y capacitar meteorólogos.