Restraining the robots. Autonomous weapons and the new laws of war. A technology that may prove hard to restrain
The Economist [2019], "Restraining the robots. Autonomous weapons and the new laws of war. A technology that may prove hard to restrain", The Economist, London, 19 de enero, https://www.economist.com/briefing/2019/01/19/autonomous-weapons-and-the...
El Harop, nave no tripulada kamikaze, de Israel Aeroespace Industries está diseñada para navegar lentamente el espacio aéreo a suficiente altura para no ser detectada por el ruido de su propulsor. De no impactar regresa automáticamente a su base aérea y en caso de ser detectado por un radar de defensa aérea rastrea la fuente de la señal e impacta con ella. También puede ser utilizado de manera remota, seleccionando objetivos identificados por sus cámaras. Ambos tipos de uso pueden haber sido utilizados en los conflictos entre Armenia y Azerbaiyán en 2016 o entre Israel y Siria, más recientemente.
El Harop, según el Instituto de Investigación para la Paz en Estocolmo, es uno de los 49 sistemas utilizados capaces de detectar posibles objetivos y atacar sin intervención humana. Entre 89 organizaciones no gubernamentales de más de cincuenta países se creó la “campaña para detener a los robots asesinos”.
El Harop es ejemplo de armas peculiarmente poderosas e inteligencia no humana. Anteriormente, era ejemplar el uso de misiles “dispara y olvida” que impactaban posterior a detectar una señal prerregistrada a atacar o las minas antipersona que detonaban al presionarlas con el pie.
Es necesario reconocer el pasado en el que tales armas mataron de forma indiscriminada para discutir los riesgos y la moral de las armas autónomas, aún si sus capacidades se han desarrollado, acuerdos que limiten su uso son deseables pero su aplicación puede ser difícil.
El uso de armas que no requieren supervisión humana comenzó con misiles submarinos en la Segunda Guerra Mundial. La mayoría de las armas actuales rastrean sus objetivos a través de su sonido, sus reflexiones de radar o de leer señales de calor. En general, seleccionar de forma específica requiere intervención humana. Los sistemas de defensa como Phalanx, el cual dispara a cualquier objetivo detectado después de haber sido activado son la excepción.
El mayor reto para las fuerzas armadas y productores de armamento es poder seleccionar un objetivo entre un conjunto de “no objetivos”. Lo cual se ha visto beneficiado por el desarrollo de computadoras más potentes y de “aprendizaje automático” [machine learning] más sofisticado.
El cambio radica en que la autonomía en los aspectos no letales de la vida militar se esparcen rápidamente, las aeronaves y submarinos no tripulados y los camiones autónomos son multiusos. El ejercicio militar "Guerrero Autónomo” del Ejército Británico de 2018 en el sur de Inglaterra mostró aeronaves y vehículos autónomos realizar operaciones de monitoreo de las líneas enemigas, evacuación de elementos heridos y entrega de provisiones.
Los vehículos autónomos no necesitan convertirse en armas autónomas, aun cuando cuentan con fuerza letal. La aeronave autónoma Reaper utilizada por Estados Unidos es sometida a firme control humano.
En sistemas de control remoto satelital existe un retraso, resultado de transmitir información a kilómetros del lugar desde donde se opera y el satélite que triangule el objetivo. La cooperación podría ser mejor con operadores capaces de tomar decisiones de forma remota. La Agencia de Proyectos de Investigación Avanzados en Defensa (DARPA) del Pentágono trabaja en ataques enjambre autónomos, parecidos al vuelo de estorninos; cabe cuestionar la capacidad de operadores humanos en tales dinámicas. La productora europea de misiles MDBA se jacta de sus misiles aire a tierra Brimstones pueden ordenarse de forma automática, reduciendo la probabilidad de que dos misiles ataquen el mismo objetivo.
Otro factor es el costo de la posible pérdida de un robot a comparación de personal entrenado. Contar con sistemas con ayuda de operadores humanos no necesariamente es menos costoso, es posible que el factor costo sea irrelevante. Guerras en el futuro podrían darse en “entornos electromagnéticos competidos”. La Real Fuerza Aérea Británica confía que enlaces de información encriptados sobrevivirían tales entornos. Las fuerzas aéreas podrían estar sujetas a prejuicios sin fundamentos ya que mantienen el interés de contar con pilotos.
La vulnerabilidad de enlaces de comunicación a ser interferidos es argumento a favor de mayor autonomía. Los sensores para armas como Brimstone deben ser más especializados ya que su campos de acción pueden ser caóticos y existen intentos de desorientar al enemigo.
Nuevas capacidades, reducción de costos, resistencia a medidas de respuesta y la posibilidad de nuevos mercados fomentan la investigación y desarrollo en armas autónomas. La "campaña para detener robots asesinos" busca una prohibición en el uso de armas “completamente autónomas”. Representantes suizos afirman que las armas autónomas son aquellas capaces de actuar “de forma parcial o plena reemplazando a un humano en el uso de fuerza”. Representantes británicos afirman que las armas autónomas son solamente aquellas “capaces de entender intención y dirección de alto nivel”.
La Convención sobre ciertas armas convencionales de la Organización de las Naciones Unidas formalizó en 2017 las discusiones creando el grupo de expertos gubernamentales. Esta estudia la autonomía, busca desarrollar el entendimiento común de la autonomía plena y considera una lista de prohibiciones y otras opciones para enfrentar los retos humanitarios y de seguridad creados.
La mayoría de los Estados discuten la importancia del control humano. Heather Roff y Richard Moyes argumentan que “un humano simplemente apretando un botón de ‘fuego’ en respuesta a indicaciones desde una computadora, sin claridad cognitiva o conciencia” no es control en realidad. El “control significativo” requiere comprender el contexto en que un arma es utilizada y la capacidad para intervenir. Richard Craig argumenta que el contexto es crucial y que este varía entre caso y caso.
Las futuras aeronaves de guerra robóticas presentan grandes retos. Pueden encontrarse en una amplia variedad de entornos, difíciles de anticipar, y pueden estar bajo control humano significativo o no, donde importa la competencia y experiencia del operador.
Los estados que desean prohibir en su mayoría cuentan con milicia de tamaño pequeño y no cuentan con la industria armamentista para hacerse de ganancias de armas autónomas. Estos estados se basan en el Derecho Internacional Humanitario, protestando distinguir entre combatientes y civiles, abstención de ataques donde el riesgo a civiles supere la ventaja militar, el uso proporcional de la fuerza y evitar sufrimiento innecesario.
Vincent Boulanin y Maaike Verbruggen señalan que los sistemas de reconocimiento de objetivo actuales son rudimentarios. Kathleen McKendrick explica que no importa que tan sofisticadas sean las nuevas máquinas, anteponer vidas humanas sobre objetivos militares las sobrepasa. Una armada debe ser capaz de tomar decisiones proporcionales antes de disparar.
La “cláusula Martens” de la Convención de la Haya de 1898 señala que armas nuevas deben cumplir con “los principios de humanidad” y con “dictados de conciencia pública”. Bonnie Docherty de Human Rights Watch señala que las armas completamente autónomas no son capaces de apreciar la vida humana, ni la pérdida de la misma, por lo que son incapaces de respetar la dignidad humana.
Los sistemas automáticos pueden interactuar de forma impredecible. Paul Scharre señala la posibilidad de una guerra causada por una serie de eventos comprometedores. Peter Roberts afirma, "si estamos abiertos a la idea de que los humanos tomamos malas decisiones, también deberíamos estar abiertos a la idea de que los sistemas de inteligencia artificial tomen malas decisiones—solo que más rápidamente."
Los estados apoyan distintas posturas. China está a favor de una prohibición en su uso, no de su desarrollo. Alemania y Francia por el momento están en contra de una prohibición pero desean acordar un código de conducta. Estados Unidos, Gran Bretaña y Rusia se oponen a la prohibición, insistiendo que el derecho internacional actual basta para evaluar sistemas futuros.
También se argumenta que las armas autónomas podrían ser más humanas, los robots podrían evitar los crímenes cometidos por humanos. Existen sistemas de control sensibles al contexto basados en el Derecho Humanitario Internacional que podrían ser utilizados como bases de programación para futuras generaciones de sistemas.
Los controles de armas requieren verificación, lo que podría resultar en futuras problemáticas en torno a la autonomía. Según Michael Horowitz, poder diferenciar el progreso entre generaciones de armas, ya sea en software o en hardware, será retador utilizando técnicas de control de armas tradicionales.
La necesidad de restringir esta tecnología antes de contar con ella y usarla es entendible. Si otorgar más autonomía a las armas resulta en una ventaja militar y los países desarrollados se ven afectados por guerras que no sean de su elección, es probable que los marcos éticos y jurídicos a que están sujetos sean desechados. Los estados están dispuestos a sacrificar control humano por supervivencia.
1. Gráfica. De una vista a matar. Autonomía en sistemas de armas existentes global. Análisis de 154 sistemas con capacidades de focalización automatizada, noviembre de 2017.
2. Gráfica. Sal de su camino. Número acumulado de sistemas armados desplegados utilizando tecnologías automáticas global, 1961-2020.
Las armas autónomas podrían resultar en nuevas formas de la guerra, en la que se diferencien los países desarrollados de los no desarrollados bajo el criterio de contar o no con armas autónomas, es decir, una posible guerra en la que se enfrenten humanos (por parte de los países no desarrollados, o minorías) contra armas autónomas (por otra parte). Aquí reside la importancia en que ciertos países se opongan o estén a favor del desarrollo y el uso de tales armas, particularmente Estados Unidos, Reino Unido y Rusia. En oposición a países que proponen una prohibición de su uso, aún si no han terminado de desarrollarse, como Austria, Yibuti y Perú. Por otra parte, estas tecnologías se han visto acompañadas del desarrollo del "aprendizaje de las máquinas" y computadoras más potentes, razón por la que también se ha visto una incursión de la autonomía en otros espacios o tecnologías.