Man and machine. Autonomous weapons are a game-changer. AI-empowered robots pose entirely new dangers, possibly of an existential kind

Cita: 

The Economist [2018], "Man and machine. Autonomous weapons are a game-changer. AI-empowered robots pose entirely new dangers, possibly of an existential kind", The Economist, London, 27 de enero, https://www.economist.com/news/special-report/21735472-ai-empowered-robo...

Fuente: 
The Economist
Fecha de publicación: 
Sábado, Enero 27, 2018
Tema: 
El desarrollo de las armas autónomas, la intervención humana y los dilemas que plantea su uso
Idea principal: 

La mayor parte de las tendencias actuales de la guerra, aunque preocupantes, están dentro de la experiencia humana y constituyen la actualización de viejas características llevadas a otro nivel. No obstante, en lo tocante a la robótica militar, las cosas son distintas. Esta plantea nuevos problemas prácticos, legales, éticos y políticos y crea, potencialmente, peligros “de tipo existencial” completamente nuevos. Las preocupaciones al respecto han estado aumentando. De hecho, recientemente un grupo de ONG pidieron en el Convenio sobre Ciertas Armas Convencionales [Convention on Certain Conventional Weapons] de Naciones Unidas la creación de un tratado internacional que prohíba las armas autónomas letales [lethal autonomous weapons, LAWs].

El problema es que las armas autónomas contemplan una gama tan amplia que incluye desde misiles capaces de definir selectivamente sus objetivos hasta máquinas con la habilidad de decidir quién, cuándo y cómo luchar. La mayor parte de las personas está de acuerdo en que cuando la fuerza letal se utiliza, los humanos están involucrados en iniciarla. Pero determinar qué tipo de control humano puede ser el apropiado cuando se trata de armas autónomas es complicado. Y la tecnología avanza a un ritmo tan acelerado que la diplomacia internacional se está quedando atrás. Algo que complica las cosas aún más es que los avances más importantes en inteligencia artificial los están llevando a cabo empresas privadas con fines comerciales. “Incluso si un acuerdo que prohibiera los robots militares pudiera ser alcanzado, la tecnología que posibilita las armas autónomas sería generalizada y fácilmente transferible”.

Es poco probable que en ausencia de un acuerdo internacional de prohibición, los gobiernos renuncien a desarrollar las armas autónomas y cedan a sus adversarios la ventaja de monopolizar tecnologías que podrían producir un ataque devastador sólo porque algunos grupos se han opuesto a estas armas. La carrera por la producción de armas autónomas es “impulsada por fuerzas imparables”: la competencia geopolítica, la ciencia de frontera y la búsqueda de ganancia por parte de las empresas tecnológicas. La pregunta es, entonces, cómo pueden limitarse los aspectos más perturbadores de estas tecnologías.

Aunque la pesadilla más extrema, en la que hay una rebelión de robots y las máquinas exterminan a la raza humana, pertenece aún al terreno de la ciencia ficción, hay otros temores más realistas que deben considerarse. Por ejemplo, los sistemas autónomos pueden tener un mal funcionamiento porque hay errores en la escritura de su código o porque sean objeto del ciberataque de un adversario; esto podría traer consigo la pérdida de muchas vidas o un escalamiento del conflicto tan acelerado que no haya tiempo para que los humanos respondan. Además, las máquinas con inteligencia artificial pueden hacer cosas que los humanos nunca previeron.

Mucha de la discusión en relación con la posibilidad de que los humanos “hagan equipo” con sistemas robóticos gira en torno a si los humanos participan en el circuito “observar, orientar, decidir, actuar” (OODA). El operador de un dron controlado remotamente está dentro del circuito OODA [in the loop] porque decide a dónde se dirige, cómo y cuándo. En un sistema “sobre el circuito” [on-the-loop], las armas autónomas llevan a cabo casi toda la misión sin un operador humano, pero es posible intervenir en cualquier momento, por ejemplo, para abortar la misión o para modificar los objetivos. En cambio, en un sistema completamente autónomo, los seres humanos están fuera del circuito [off-the-loop], y una vez que el operador aprieta el botón de inicio, el sistema se encarga de llevar a cabo toda la misión, incluida la selección de objetivos. Por ahora, las fuerzas armadas occidentales están determinadas a mantener a los humanos dentro o sobre el circuito de toma de decisiones. Incluso hay una directiva de política del Pentágono al respecto:

“Estos sistemas [autónomos] deben ser diseñados para permitir a los comandantes y operadores ejercer niveles apropiados de decisiones humanas sobre el uso de la fuerza. Las personas que autoricen el uso de, dirijan en uso de, u operen estos sistemas, deberán hacerlo con el cuidado adecuado y en concordancia con la ley de guerra, los tratados aplicables, las reglas de seguridad de los sistemas de armas y las reglamentaciones de combate aplicables”.

No obstante, aunque Estados Unidos busque mantener a los humanos en o sobre el circuito de toma de decisiones, no hay certeza de que sus adversarios vayan a hacer lo mismo. Por ejemplo, podrían decidir dejar en la inteligencia artificial la toma de decisiones si sus nodos de comando y control son atacados. “Se cree que Rusia opera una ‘mano muerta’ que automáticamente lanzará sus misiles nucleares si sus sensores sísmicos, de radioactividad y presión detectan que están bajo ataque”. Es probable que en escenarios altamente disputados sea muy tentador dejar a los sistemas autónomos la toma de decisiones. Si un país lo hace, los demás lo harían también. “Nada es más cierto acerca del futuro de la guerra que las posibilidades tecnológicas siempre darán forma a las ventajas en la lucha”.

Nexo con el tema que estudiamos: 

La automatización de la guerra es parte del proceso de abstracción creciente que caracteriza el avance de la subsunción de la totalidad social al capital. Las armas autónomas acabarán con las formas tradicionales de la guerra: la destrucción masiva de fuerzas armadas enemigas y de poblaciones enemigas sin bajas humanas se convertirá en una cuestión de costos, y desatará una carrera entre los fabricantes para reducir los costos de tales armas.

La incorporación de las armas autónomas en la guerra la sitúa en un terreno que antes sólo parecía propio de la ciencia ficción: ejércitos de máquinas asesinando al enemigo casi sin intervención humana son el futuro de la guerra. Su implementación plantea numerosos problemas éticos. Por ejemplo, si armas robóticas eliminan a una población ¿a quién se juzgaría por crímenes de guerra?, ¿quién será responsable por esos “crímenes de lesa humanidad”? Los tratados internacionales sobre cuestiones militares, obsoletos de por sí, son inoperantes cuando las armas autónomas entran en cuestión.