Los derechos humanos deben regir la inteligencia artificial (IA). Esta es la conclusión a la que han llegado especialistas para abordar el fenómeno de la falta de transparencia de los algoritmos y la data de los que se alimenta esta tecnología.

El centro de investigación radicado en Nueva York, Data&Society, publicó recientemente un documento titulado Governing Artificial Intelligence: Upholding Human Rights and Dignity, en el que expone algunos ejemplos de cómo la inteligencia artificial puede vulnerar los derechos humanos de las personas; además de ofrecer un panorama de lo que pueden hacer al respecto los integrantes de la sociedad que entran en contacto con esta tecnología: empresas, sociedad civil, gobiernos, las Naciones Unidas, instituciones intergubernamentales y la academia.

“Para que la IA beneficie al bien común, al menos su diseño y despliegue deben evitar daños a los valores humanos fundamentales. Los derechos humanos internacionales proporcionan una formulación sólida y global de esos valores”, refiere el documento.

Los ejemplos de las consecuencias que puede tener el no poner los derechos humanos al centro del desarrollo de proyectos de inteligencia artificial no son pocos. Recientemente, Amazon tuvo que deshacerse de un asistente de inteligencia artificial que facilitaba sus tareas de contratación de recursos humanos porque este comenzó a manifestar claros sesgos discriminatorios en contra de las mujeres. La organización ProPublica y en especial la investigadora Julia Angwin se han encargado de develar cómo los algoritmos soncajas negras que pueden introducir sesgos racistas en decisiones judiciales y en un artículo publicado el pasado 21 de octubre, la MIT Technology Review expuso cómo diversos grupos de activistas por los derechos humanos en Estados Unidos se han manifestado en contra de la creación de “una base de datos masiva que contiene los nombres y datos personales de al menos 17,500 personas de las que sospecha que están involucradas en pandillas delictivas”.

El documento de Data&Society expone ejemplos sobre cómo, a través de proyectos de inteligencia artificial desarrollados e implementados por empresas como Facebook, gobiernos como el de China y hasta universidades como Stanford, pueden implicar violaciones sistemáticas a derechos humanos como el derecho a la no discriminación, a la privacidad, a la participación política y a la libertad de expresión.

“Investigadores de la Universidad de Stanford capacitaron una red neuronal profunda para predecir la orientación sexual de sus sujetos de estudio, sin obtener su consentimiento, utilizando un conjunto de imágenes recopiladas de sitios web de citas en línea. Más allá de varias deficiencias metodológicas, la investigación demostró cómo la falta de respeto al derecho a la privacidad aumenta los riesgos de la vigilancia algorítmica, con la que los datos que se recopilan y analizan amenazan con revelar información personal sobre los usuarios. Esto puede poner en riesgo a individuos y grupos, particularmente a aquellos que viven bajo regímenes que usarían dicha información para reprimir y discriminar”, abunda el informe.

¿Cuál es la manera en que las empresas y organizaciones en México están abordando este problema?

De acuerdo con Miguel González Mendoza, presidente de la Sociedad Mexicana de Inteligencia Artificial (SMIA), lo que sucede con sistemas de inteligencia artificial no es muy diferente a lo que ocurre con otro tipo de sistemas, como los transaccionales. El especialista puso como ejemplo los sistemas de transacciones bancarias, que están basados en series de reglas mediante los cuales pueden autorizar o rechazar una operación, por lo que es posible tomarlos como referencia para el caso de los algoritmos de inteligencia artificial.

“Hay decisiones que ya se toman de forma automática y la única diferencia con los algoritmos de aprendizaje automático (machine learning) y de inteligencia artificial es que son un poco más complejos, por lo que la alternativa es que, al igual que en el caso de los sistemas transaccionales, uno tenga que certificar sus algoritmos”, dijo Miguel González en entrevista con El Economista.

El presidente de la SMIA advirtió que muy probablemente en el futuro las organizaciones tengan que empezar a certificar sus algoritmos, lo que también comenzará a ejercer presión en los órganos legislativos, que serán quienes decidan cuáles son los entes certificadores para este tipo de sistemas.

La Sociedad Mexicana de Inteligencia Artificial ha promovido la creación de un comité que comience a definir los lineamientos generales para desarrollar estas certificaciones. “Lamentablemente, por falta de recursos, en México seguimos las tendencias que surgen en otros países. Si quisiéramos ser punta de lanza en alguna de estas tecnologías, tendríamos que establecer un grupo de trabajo que pueda establecer lineamientos preventivos ante las consecuencias de la aplicación de estos sistemas”, dijo.

González dijo también que por el momento en el que se encuentra el desarrollo de estas tecnologías, definir estándares de ejecución es complicado, lo que hace más viable establecer mejores prácticas y recomendaciones que eventualmente puedan estandarizar estos sistemas.

Una de las empresas que está implementando esta clase de mejores prácticas y recomendaciones alrededor de los sistemas de inteligencia artificial es IBM, a través de su programa de Trust and Compliance, la cual está disponible para los clientes del servicio de nube de la compañía y que tiene la capacidad de entregar un reporte de indicadores que les dirá cómo se está comportando su plataforma de inteligencia artificial desde dos puntos de vista: por el lado de la creación y desarrollo de algoritmos y desde el set de datos que se ha usado para entrenar estos algoritmos, de acuerdo con Martha González Pérez-Sandi, directora de Watson y Cómputo en la Nube de IBM en América Latina.

“El objetivo es que nuestros clientes puedan saber cómo se están comportando sus soluciones de inteligencia artificial, sean nuestras o de otras compañías, y si por alguna razón tienen alguna desviación que pueda generar una respuesta equivocada a partir del set de datos que se eligen para el entrenamiento del algoritmo. Podemos ver si los datos están siendo demasiado sesgados hacia uno u otro lado o si la muestra abarca lo suficiente para llegar a la respuesta que se busca”, dijo González Pérez-Sandi en entrevista con El Economista.

“Estamos en la fase de adopción. Pronto empezaremos a ver los resultados que están teniendo. Este es un tema que es sensible para nuestros clientes y son ellos los principales interesados en demostrarle a sus usuarios total transparencia de los servicios que tienen disponibles para ellos”, añadió.

Si bien Trust and Compliance sólo está dirigido a los clientes del servicio de nube de IBM y a universidades -no sabemos si los derechos humanos son su principal aliciente-, este programa de la compañía destaca frente a las medidas que han tomado otras compañías tecnológicas como Google, que en junio pasado, ante los reclamos de sus propios trabajadores, accedió a descontinuar su trabajo en un proyecto de inteligencia artificial llamado Project Maven en el que colaboraba con el Pentágono de Estados Unidos y además publicó una serie de principios técnicos que supuestamente normarían su acercamiento a la inteligencia artificial.

“Solo unos meses después, muchos empleados de Google sienten que esos principios se han dejado de lado con una oferta por un contrato del Departamento de Defensa de 10,000 millones de dólares. Un estudio reciente realizado en la Universidad Estatal de Carolina del Norte también encontró que pedir a los ingenieros de software que lean un código de ética no hace nada para cambiar su comportamiento”, refiere la MIT Technology Review.

Quizá sea esta la razón por la que el documento de Data&Society centre tanto su atención a lo que hacen las compañías privadas respecto de sus desarrollos de inteligencia artificial.

“Las empresas de tecnología deberían encontrar canales efectivos de comunicación con grupos de la sociedad civil locales e investigadores, particularmente en áreas geográficas donde los problemas de derechos humanos son altos, para identificar y responder a los riesgos relacionados con los despliegues de AI”, refiere el reporte de Data&Society.

La perspectiva de este centro de investigación empata con lo dicho por el presidente de la Sociedad Mexicana de Inteligencia Artificial en México, ya que recomienda que “a la luz de los nuevos desarrollos en las evaluaciones de impacto algorítmico, deben desarrollarse kits de herramientas que evalúen las necesidades de cada industria alrededor de esta tecnoogía”.

“Si los investigadores, desarrolladores y diseñadores de AI trabajan para proteger y respetar los derechos humanos fundamentales, podrían abrir el camino para un amplio beneficio social. Hacer caso omiso de los derechos humanos sería cerrar ese camino”, refiere Data&Society.

rodrigo.riquelme@eleconomista.mx