Lectura 5:00 min
¿Cuántas firmas para frenar las guerras con Inteligencia Artificial?
¿Se acuerdan de la película “Juegos de Guerra”, (WarGames) de 1983? Cuando un joven hacker de Estados Unidos provoca, “por error”, que un sistema de control de lanzamientos de misiles, que opera sin la intervención humana, genere un conflicto bélico contra la Unión Soviética.
Después de 37 años, en el 2020, la ciencia ficción dejó de ser solo ficción. Un dron autónomo (robot) el “Kargu-2” de Turquía, participó en un conflicto bélico contra Libia, atacando objetivos sin intervención humana. Sí, un robot tomó decisiones de vida o muerte. No fue cualquier cosa: un informe de la ONU señaló que esto ha cambiado por completo el paradigma de la guerra moderna, porque detrás de esta tecnología está la Inteligencia Artificial. Y no, “Kargu-2” no actuó por accidente, como en la película.
¿Robots que operan de forma autónoma, haciendo la guerra? Aunque parezca sacado de una película, la IA lleva años en el mundo militar:
- En 2019: El dron “Harop”, de Israel, se utilizó para destruir radares y sistemas de defensa enemigos.
- Desde 2017: El “Proyecto Maven”, iniciativa del Departamento de Defensa de Estados Unidos, se ha utilizado para analizar imágenes de satélite y drones, identificando objetivos en conflictos, como la lucha contra ISIS.
- Desde 2010: Se sabe que Rusia y China desarrollan herramientas de ciberguerra, como malware autónomo que burla sistemas de defensa.
- 2010: El ciberataque Stuxnet, cuando se creó la primera ciberarma para sabotear las centrifugadoras nucleares en Irán... Se cree que fue creado por Estado Unidos e Israel, a través de una operación clandestina, que aunque no fue IA pura, sentó las bases para su uso futuro.
- Desde los años 80: El Ejército de EU ya usaba simuladores de vuelo con algoritmos básicos de IA.
Los defensores de la Inteligencia Artificial militar aseguran que estos proyectos salvan vidas y acortan los conflictos. De hecho, el general John Allen, excomandante de la Fuerza Internacional de Seguridad en Afganistán, declaró: "La IA nos permite procesar grandes volúmenes de datos en tiempo real, lo que es crucial para la toma de decisiones en el campo de batalla."
¿Suena bien? Depende. Porque en esta carrera armamentista hay países que llevan la delantera:
- Estados Unidos: pionero en armas autónomas y guerra cibernética.
- China: haciendo grandes inversiones en IA para defensa y vigilancia.
- Rusia: desarrollando armas autónomas y sistemas de ataque digital.
- Israel y Turquía: líderes en crear drones y sistemas de defensa automatizados.
Y no solo los gobiernos están involucrados. Firmas como Amazon, Google, IBM y Microsoft (por mencionar las más populares) han puesto sus modelos de IA al servicio de proyectos militares. ¿Por ideología? ¿Por negocio? ¿O por presión política? Tal vez por todo.
¿Se puede usar la IA para detener la guerra?
En 2018, más de 3,000 empleados de Google firmaron una carta exigiendo que la empresa dejara de participar en el Proyecto Maven, el programa de IA para ataques militares.
Funcionó… por un tiempo. Google respondió con un compromiso público: no desarrollar IA para armamento ni tecnologías que causaran daño o violaran derechos humanos, y aseguró que limitaría la colaboración con gobiernos en aplicaciones militares. Sin embargo, con la competencia creciente (especialmente de China) y cambios en la política estadounidense, este compromiso cambió.
Me pregunto entonces, ¿cuántas firmas necesitaríamos recopilar los ciudadanos comunes para que las empresas tecnológicas que nos gustan dejen de alimentar la guerra "inteligente"? Lo digo como una ironía, evidentemente.
Aunque quisiera creer que al igual que pasó con el Internet (creado en los años 50 con fines militares), todo este desarrollo bélico en IA acabará impulsando avances en áreas clave para la humanidad: educación, acceso a agua y alimentos, salud, reducción de la pobreza.
Tal vez, algún día, la Inteligencia Artificial gane el Premio Nobel de la Paz por ayudar a construir un mundo mejor... o con menos conflictos bélicos
Por ahora, solo nos queda soñar… y exigir cambios, aunque sea recopilando firmas por la paz.
<<<
P.D. Es interesante cómo se comporta la IA con ciertos temas. Pregunté a ChatGPT y Gemini (originarias de Estados Unidos) sobre el uso de Inteligencia Artificial en conflictos armados en el mundo, y me dieron información con lujo de detalles. Cuando pregunté lo mismo a DeepSeek (de China), en cada consulta me mandó datos muy genéricos y la constante leyenda “Espere. El servidor está ocupado” para dejar de mostrarme información.
Me queda una reflexión para analizar más adelante: ¿qué tanta libertad tendrá realmente la IA para hablar de “cualquier cosa” y con auténtica objetividad?
*Esta columna quincenal, llamada “IA: Integrados y Apocalípticos” filosofa sobre la Inteligencia Artificial, con sus pros y contras y cómo se va integrando en la vida cotidiana.