The Third Revolution in Warfare

Cita: 

Lee, Kai-Fu [2021], "The Third Revolution in Warfare", The Atlantic, 11 de septiembre, https://www.theatlantic.com/technology/archive/2021/09/i-weapons-are-thi...

Fuente: 
Otra
Fecha de publicación: 
Sábado, Septiembre 11, 2021
Tema: 
Armas autónomas, presente y futuro
Idea principal: 

Kai-Fu Lee es director ejecutivo y presidente de la empresa de capital de riesgo Sinovation Ventures y presidente del Instituto de inteligencia artificial de Sinovation Ventures. Antes de fundar Sinovation Ventures en 2009, fue presidente de Google China y ocupó posiciones ejecutivas en Apple y Microsoft; al trabajar en esta última empresa, fundó el instituto Microsoft Research China. Es doctor en ciencias computacionales por la Carnegie Mellon University. En 1988 creó Sphinx, el primer programa de reconocimiento continuo del lenguaje en el mundo. Lee ha trabajado en la investigación, desarrollo e inversión en inteligencia artificial por más de 30 años.


La tecnología de las armas ha cambiado sustancialmente en las últimas décadas. La primera revolución en las tecnologías de guerra fue la pólvora. La segunda revolución llegó por el invento de las armas nucleares. Ahora, la tercera revolución será debido a la creación y evolución de las armas autónomas.

Un ejemplo de arma autónoma actualmente en uso es el dron Harpy de Israel, el cuál esta programado para volar a un área designada y cazar por objetivos específicos para después destruirlos con un explosivo. Otro ejemplo pueden ser los drones que aparecen en la película Slaughterbots, los cuales tienen el tamaño de un pájaro que buscan activamente a su objetivo para disparar una pequeña cantidad de dinamita a quemarropa. Estos drones vuelan solos y son demasiado pequeños para ser atrapados o detenidos.

Estos drones no son ciencia ficción. De hecho, uno parecido casi mata al presidente de Venezuela, Nicolás Maduro, en 2018, y podría ser construido en el presente por menos de mil dólares, ya que todas las partes están disponibles para compra en línea, así como todo el software necesario está listo para descargarse de internet. Esto es una consecuencia no intencional del desarrollo de la inteligencia artificial y la robótica al volverse más accesible y barata. Con el tiempo, estas armas autónomas se volverán más inteligentes, precisas, rápidas y baratas, así como también aprenderán nuevas habilidades, como el trabajo en equipo, lo que las hará prácticamente imparables.

Las armas autónomas tienen ciertos beneficios, ya que pueden salvar las vidas de soldados, si es que las guerras se pelean con máquinas; además, en las manos de un militar responsable, pueden ayudar a otros soldados a reducir las bajas por el fuego aliado o no intencional. Las armas autónomas también pueden ser usadas de manera defensiva contra asesinos y diferentes amenazas. Sin embargo, las desventajas son mucho más grandes que los beneficios.

Mayor autonomía sin un conocimiento más profundo de sus consecuencias solo dará mayor impulso a la velocidad de la guerra, y por supuesto, a los damnificados humanos, y potencialmente podría llevar a un escalamiento acelerado y de mayores consecuencias, como la guerra nuclear. La inteligencia artificial está limitada por su falta de sentido común, de habilidad para razonar y de capacidad para entender las consecuencias de sus acciones.

Conseguir poder militar puede llegar a ser mucho menos costoso, lo que reduce la barrera de entrada a conflictos globales. Países relativamente pequeños pero con importantes avances en tecnología, como Israel, ya han entrado a la carrera con algunos de los más avanzados robots, incluyendo a unos que son tan pequeños como las moscas. Al tener la certeza que sus adversarios construirán armas autónomas, los países más ambiciosos sentirán la necesidad de competir.

Las armas nucleares son una amenaza a la existencia humana. No obstante, han logrado mantenerse reguladas e incluso han ayudado a reducir la guerra convencional debido a la disuasión: una guerra nuclear llevaría a ambos bandos a la destrucción mutua asegurada; ante esta situación, cualquier bando que inicie un ataque nuclear probablemente enfrentará represalias y será objeto de la misma destrucción. Pero la historia es diferente con las armas autónomas, dado que un primer ataque sorpresa puede ser imposible de rastrear. Un ataque puede no ser provocado siquiera por un estado, sino por terroristas u otro individuo u organización no gubernamental.

Ha habido muchas propuestas para solucionar esto. Una es que cada decisión letal de un arma autónoma esté a cargo de un humano, pero las grandes ventajas de las armas autónomas vienen de su velocidad y precisión, justamente por no tener un humano a cargo. Esta concesión puede ser inaceptable para cualquier país que busque ganar la carrera de armas. Una segunda propuesta es una prohibición, que ha sido apoyada por personas como Elon Musk y en su momento por Stephen Hawking, además de miles de expertos en inteligencia artificial. La prohibición ha funcionado para armas biológicas y químicas. Sin embargo, el principal obstáculo para prohibir la armas autónomas es que Estados Unidos, Reino Unido y Rusia se oponen, afirmando que es muy pronto para hacerlo. La última manera sería regular estas armas, pero esto viene con grandes obstáculos dado que es difícil establecer especificaciones técnicas efectivas sin que sean muy laxas o amplias.

Las armas autónomas ya son un peligro real y actual, al tiempo que se volverán más inteligentes capaces, letales y disponibles a una velocidad alarmante. El uso de las armas autónomas será acelerado por una carrera que no genera la disuasión que provocan las armas nucleares. Las armas autónomas son la aplicación de la inteligencia artificial que más genera conflictos con la moral humana.

Nexo con el tema que estudiamos: 

Mientras el mundo se vuelve más inestable política y socialmente por los diferentes problemas latentes, las armas autónomas, en constante mejora y desarrollo, representan otra amenaza a la civilización humana, debido a sus todavía incomprendidas consecuencias no intencionales. La inteligencia artificial, usada de esta manera, no ayudan a mejorar la vida humana, lo que debería ser el propósito principal de la tecnología y sus avances.