Las herramientas de inteligencia artificial crecen con rapidez y llegan a millones de personas. En ese contexto, investigadores de la Universidad de Texas en Austin estudiaron por qué surge sesgo en sistemas automatizados. El equipo, con Hüseyin Tanriverdi y el doctorando John-Patrick Akinyemi en McCombs, analizó un conjunto de 363 algoritmos que otros habían identificado como sesgados, tomados de un repositorio llamado AI Algorithmic and Automation Incidents and Controversies. Para cada algoritmo problemático compararon uno similar que no había sido señalado, y examinaron también las organizaciones que los desarrollaron y usaron.
El estudio identifica tres factores relacionados que elevan la probabilidad de resultados injustos. Primero, cuando no existe una verdad fundamental bien establecida (por ejemplo, estimar edad u opiniones tratadas como hechos), aumenta la probabilidad de sesgo. Segundo, la complejidad del mundo real se pierde cuando los modelos omiten variables relevantes; los autores citan el caso en Arkansas donde la sustitución de visitas domiciliarias de enfermeras por decisiones automatizadas redujo el acceso a apoyos para personas con discapacidad. Tercero, la falta de participación diversa de las partes interesadas puede ocultar objetivos en conflicto y limitar soluciones de compromiso.
Los investigadores concluyen que reducir el sesgo requiere más que mejorar la precisión: es preciso abrir las cajas negras, tener en cuenta la complejidad del mundo real, incluir diversidad de insumos y definir verdades fundamentales claras. Tanriverdi afirma que estos factores afectan directamente la equidad y son piezas faltantes que muchos científicos de datos ignoran. La investigación aparece en MIS Quarterly. Fuente: UT Austin
Palabras difíciles
- sesgo — preferencia o error que produce resultados injustos
- algoritmo — serie de reglas que realiza un cálculo o decisiónalgoritmos
- repositorio — lugar donde se guarda información o datos
- sustitución — acción de reemplazar una cosa por otra
- caja negra — sistema cuyo funcionamiento interno no se conocecajas negras
- insumo — materiales o datos usados para producir algoinsumos
- equidad — trato justo que evita ventajas o discriminación
Consejo: pasa el cursor, enfoca o toca las palabras resaltadas en el artículo para ver definiciones rápidas mientras lees o escuchas.
Preguntas de discusión
- ¿Qué problemas puede causar no definir una verdad fundamental clara en sistemas automatizados? Da ejemplos.
- ¿Cómo podría la participación diversa de las partes interesadas ayudar a reducir el sesgo en algoritmos?
- Según el artículo, ¿qué riesgos tiene sustituir decisiones humanas por decisiones automatizadas en servicios sociales?
Artículos relacionados
Centros de datos en Indonesia y la presión sobre el agua
El rápido crecimiento de centros de datos en Indonesia, impulsado por la IA, plantea preocupaciones sobre el uso del agua. En Batam la demanda de refrigeración y protestas locales muestran la tensión entre desarrollo y suministro hídrico.
IA ayuda a detectar melanoma con imágenes 3D
Investigadores de la University of Missouri prueban si la inteligencia artificial puede ayudar a detectar el melanoma mediante el análisis de fotografías 3D de la piel. La IA sería una herramienta de apoyo para identificar casos que requieren atención médica.
Cómo las raíces penetran suelos compactados
La compactación del suelo dificulta el crecimiento de cultivos. Investigadores explican cómo las raíces se hinchan y refuerzan su capa exterior para abrirse paso; experimentos en arroz muestran que un factor de transcripción mejora la penetración.