¿Se imaginan no ser contratados por una empresa debido a su origen? Hoy en día algunos reclutadores usan herramientas de inteligencia artificial para identificar en redes sociales datos como el código postal de donde viven los candidatos para ampliar la información sobre su perfil. Ahora imaginen que los mismos métodos se usaran para definir los apoyos del gobierno. ¿Habría riesgos?

El análisis basado en evidencia se distingue por revisar el impacto de factores naturales, sociales, demográficos o económicos, entre otros, en la sociedad, los negocios o la vida misma. Con base en ello se pueden diseñar políticas y estrategias de mercado para promover una sociedad más justa o simplemente incrementar las ganancias de un negocio. Bajo diversas condiciones pueden existir errores o sesgos derivados, por ejemplo, del diseño de los algoritmos de análisis, de la información usada o de la mala interpretación de quienes toman las decisiones.

En este sentido, diversos académicos interesados en el uso de inteligencia artificial para la toma de decisiones, como Sendhil Mullainathan, académico de la Universidad de Chicago, han analizado el uso de la inteligencia artificial y sus implicaciones sociales. Recientemente ha dado cuenta de dos estudios que realizó sobre el reclutamiento laboral en Estados Unidos, concluyendo que los sesgos encontrados en dicho proceso son más fáciles de corregir con el uso de inteligencia artificial que sin ella.

En 2004, estudió el reclutamiento laboral. Envió currículos muy similares para distintos puestos de trabajo en dos versiones, una con el nombre de quien parecería ser un solicitante caucásico y otra con el nombre de un posible solicitante afroamericano. En 2019, estudió la atención médica en dos tipos de pacientes con diabetes y presión arterial alta, caucásicos y afroamericanos, a través de un sistema de provisión de servicios de salud. Ambos estudios encontraron discriminación racial en contra de los afroamericanos.

En el primer caso la decisión recayó en el reclutador. En el segundo, en un sistema basado en inteligencia artificial. Al reclutar las personas buscaban 50% más a los solicitantes caucásicos. En la atención médica el sistema buscaba información para identificar al paciente más enfermo. El algoritmo de inteligencia artificial identificó el gasto en salud como una variable de proximidad a las condiciones de salud, por lo que subestimó la variable, pues se encontró que los gastos en salud en Estados Unidos son diferenciados entre poblaciones y no necesariamente implican gravidez.

Una vez identificados los sesgos realizó acciones para eliminarlos. Seleccionar personas sin sesgos fue complicado. Encontró que capacitar a reclutadores en temas de diversidad no tuvo gran impacto en la reducción del sesgo. Por el contrario, en el caso de la atención médica, calibrar el algoritmo permitió una atención médica más justa y equitativa para ambos tipos de pacientes.

Por consiguiente, ante la pregunta inicial de si habría más riesgos de usar inteligencia artificial para la toma de decisiones de políticas públicas, se reconoce que el uso de inteligencia artificial y el análisis de grandes cantidades de datos para la toma de decisiones nos brinda la oportunidad de que la aplicación de políticas no sólo sea más justa, sino también más cercana a su fin último.

Para asegurar la equidad, es imperativo tener un control adecuado de cómo se construyen los algoritmos y el tipo de información que procesan, para reducir los posibles sesgos propios de cualquier proceso de toma de decisión. Ahí recae la importancia de no solo comprender las nuevas tecnologías, sino asegurarnos que su uso en la creación de políticas públicas sea la correcta y más adecuada.

Director General

Consultoría en Políticas para la Innovación

@pedrolichtle