En Alemania se acaba de lanzar un código de ética que norma el uso de los vehículos autónomos. Este código tiene como objetivo hacer una clara distinción entre las decisiones tomadas por un ser humano y por una máquina.

El código plantea que los algoritmos de Inteligencia Artificial que se enfrenten a situaciones de riesgo no pueden discriminar el auxilio que brindan al ser humano de acuerdo con criterios de sexo, raza, constitución física, edad o condición económica.

El código también establece que los datos de navegación y conducción deben quedar almacenados en una caja negra para conocer todos los detalles de un accidente y deslindar la responsabilidad del mismo.

La exposición de este código de ética fue la introducción a la tercera mesa del Foro Ética de los Sistemas y Dispositivos Inteligentes, en la que uno de los organizadores, el doctor Eric Huesca, director de la Fundación para el Conocimiento y Cultura Digital, lanzó la pregunta que orientó la discusión sobre la relación ética entre los sistemas inteligentes y los seres humanos:

¿Si son efectivamente inteligentes, los sistemas inteligentes harán lo que les ordenemos?

Para el doctor Huesca, esto genera una contradicción, debido a que si queremos impulsar la creación de sistemas inteligentes debemos dejar que tomen decisiones por sí mismos.

Lo que sí hay que hacer es revisar los contextos en los que son generadas este tipo de innovaciones, además de hacer explícito el sistema ético de los creadores de una máquina para poder prevenir el alcance de las decisiones que estas tomen.

Esto porque los algoritmos no están exentos de ser parciales, lo que puede resolverse a través de la transparencia. En este sentido, de acuerdo con Paola Ricaurte Qujano, profesora del Tecnológico de Monterrey, si los algoritmos violentan los derechos de una persona, ésta es una razón suficiente para hacerlos plenamente auditables.

[email protected]