Buscar
Arte e Ideas

Lectura 5:00 min

Robots asesinos

En el debate mundial sobre el uso y desarrollo de drones cabe detenerse un momento en Asimov y las ideas que ya discutió la ciencia ficción desde la edad dorada.

Cuando Isaac Asimov introdujo las tres leyes de la robótica en un relato de 1942, el autor de ciencia ficción perfilaba la estructura que después sería motivo recurrente en una de sus series más memorables: El sol desnudo, Yo, Robot y Las bóvedas de acero, y decenas de relatos.

Las leyes se reducían a lo siguiente: 1) Un robot no podrá herir a un ser humano o, a través de su falta de acción, permitir que un ser humano sea lastimado; 2) un robot debe obedecer las órdenes dadas por seres humanos, excepto en aquellos casos en que las órdenes entren en conflicto con la primera ley; 3) un robot debe proteger su propia existencia siempre y cuando esa protección no entre en conflicto con la primera o la segunda leyes.

Lo interesante de estos principios no es cómo los entendemos al leerlos, sino cómo eran aplicados en sus textos por los propios robots al enfrentar situaciones particulares.

Las bóvedas de acero, en particular, surge como una respuesta de Asimov a un colega que afirmaba que la ciencia ficción y el género de misterio resultaban incompatibles. En su novela, un detective descubre que el principal sospechoso de un asesinato es un robot, lo cual resultaba imposible dada la restricción que suponía la primera ley en su programación. Es un misterio inteligente en una sociedad futura de megalópolis de pesadilla y sobrepoblación.

Las leyes de la robótica de Asimov vienen a la mente al leer un reportaje de Daily Beast sobre el debate en la ONU sobre la implementación o no de robots asesinos. La nota va aparejada con una reciente conversación en nuestro país a propósito del uso de drones en la guerra contra el crimen organizado.

El debate mexicano era más cercano a los esperables ámbitos de soberanía nacional: el permitir el uso del espacio aéreo a tecnología militar estadounidense y menos, como podría haberse deseado, al dilema moral que supone el utilizar estos aviones robots como asesinos. Sean éstos controlados en forma remota o con cierta autonomía.

Ya no se trata de ciencia ficción, se están desarrollando drones programados para establecer blancos y disparar sin intervención humana. Algo que de acuerdo a Christof Heyns, comisionado de la ONU para ejecuciones extrajudiciales, es una masacre mecánica . Para Heyns, en la misma forma en que tomar una vida humana merece como mínimo cierta deliberación. Una decisión de permitir a las máquinas utilizarse de esta manera, merece una pausa colectiva .

La tecnología militar está cerca de este punto. Sistemas defensivos de misiles que detectan, siguen y se disparan en forma automática misiles que se acercan, son uno de sus antecedentes. Hay aviones en Estados Unidos y Corea del Sur que ya siguen sus propios planes de vuelo, incluyendo el patrullaje de ciertas zonas. Hasta ahora, ambos incluyen supervisores humanos que pueden intervenir si algo va mal.

Heyns teme que pronto ese soldado se vuelva irrelevante, al ser el elemento más flojo y vulnerable en las estructuras militares. Los sistemas de misiles, por ejemplo, son automáticos porque no hay ser humano capaz de reaccionar a tiempo y realizar esa misión.

La nota de Daily Beast sugiere un poco de humor: ¿Por qué quisiera nadie darle a los robots tal poder mortal? ¿Que no hay miles de películas donde eso sale horriblemente mal?

La moratoria solicitada por Heyns, sin embargo, no es trivial. Los argumentos militares se dividen desde aquellos que ponen la moral de los robots por encima de los soldados humanos: ellos no disparan por miedo, venganza o resentimiento, tampoco violan o torturan. Claro que al no tener tampoco compasión, el contexto en que serían utilizados es determinante. ¿Puede un robot distinguir entre un soldado enemigo y un civil? ¿Entre alguien que levanta su arma para rendirse o para atacar?

Fuera de la broma referente al cine, resulta por demás interesante que muchas de las preguntas de estos debates hayan ya sido exploradas por la literatura de ciencia ficción y el cine (desde HAL 9000 hasta Skynet). Basta pensar en la responsabilidad moral cuando una falla del robot cueste vidas humanas. A Heyns le preocupa el vacío de responsabilidad que puede existir entre el fabricante, el programador, el comandante militar y los subordinados que supervisan su operación.

Al final, el único consenso entre los opositores se parece mucho a las leyes de Asimov. Jody Williams, Nobel de la Paz, afirmó al respecto que cualquier decisión de matar necesita ser tomada por un humano . Algo, que paradójicamente, me atrevo a añadir, los humanos hacemos con demasiada ligereza.

@rgarciamainou

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí
tracking reference image

Últimas noticias

Noticias Recomendadas

Suscríbete