La lista es extensa e incluye algunos de los nombres más influyentes en los mundos superpuestos de la tecnología, la ciencia y la academia.

Entre ellos se encuentran el inventor multimillonario y fundador de OpenAI, Elon Musk; el cofundador de Skype, Jaan Tallinn; el investigador de inteligencia artificial Stuart Russell, así como los tres fundadores de Google y su DeepMind, el principal grupo de investigación de aprendizaje automático de la compañía.

En total, más de 160 organizaciones y 2,460 personas de 90 países prometieron esta semana no participar ni apoyar el desarrollo y el uso de armas letales autónomas.

En teoría, se espera que la inteligencia artificial juegue un papel cada vez más importante en los sistemas militares, por lo que las voces hacen un llamado de advertencia a los gobiernos para que introduzcan leyes que regulen ese tipo de armas “para crear un futuro con sólidas normas internacionales”.

Los sistemas letales de armas autónomas pueden identificar, atacar y matar sin la participación humana, de acuerdo con el Future of Life Institute (FLI), una organización benéfica con sede en Boston que busca reducir los riesgos planteados por la inteligencia artificial y participó en la redacción de la carta firmada por 160 organismos.

La organización afirma que los sistemas autónomos de armas no incluyen drones, ya que éstos dependen de las decisiones de humanos para operar.

Según Human Rights Watch, se están desarrollando sistemas de armas autónomos en muchas naciones del mundo, “particularmente en los Estados Unidos, China, Israel, Corea del Sur, Rusia y el Reino Unido”.

Armas piratas

El FLI afirma que los sistemas de armas autónomas estarán en riesgo de ser pirateados y es probable que terminen en el mercado negro.

La organización argumenta que los sistemas deberían estar sujetos al mismo tipo de prohibiciones internacionales que las armas biológicas y químicas.

Incluso, el FLI ha acuñado un nombre para describir a este tipo de sistemas de armas: slaughterbots.

La falta de control humano también plantea cuestiones éticas preocupantes, según Toby Walsh, profesor de Inteligencia Artificial de la Universidad de Nueva Gales del Sur en Sydney, quien colaboró en la preparación de la carta compromiso firmada por más de 2,460 personas reconocidas.

“No podemos entregar a las máquinas la decisión sobre quién vive y quién muere”, dijo Walsh, según la declaración de FLI. “Ellas no tienen la ética para determinarlo. Los animo a ustedes y a sus organizaciones a comprometerse a garantizar que la guerra no se convierta en algo terrible”, expresó.

Musk, posiblemente el nombre más reconocido en la carta compromiso, se ha convertido en un crítico abierto de las armas autónomas. El director ejecutivo de Tesla ha dicho que la inteligencia artificial es un riesgo más peligroso para el mundo que Corea del Norte.

El año pasado, se unió a más de 100 expertos en robótica e inteligencia artificial para pedir a las Naciones Unidas que prohíban el uso de las armas autónomas.

“Las armas autónomas letales amenazan en convertirse en la tercera guerra”, advirtieron Musk y otros 115 personajes, incluido el experto en inteligencia artificial Mustafa Suleyman, a través de una carta abierta en agosto pasado.

“Una vez desarrolladas, permitirán que escalen los conflictos”.