Autonomous weapons. The fog of war may confound weapons that think for themselves

Cita: 

The Economist [2021], "Autonomous weapons. The fog of war may confound weapons that think for themselves", The Economist, London, 29 de mayo, https://www.economist.com/science-and-technology/2021/05/26/the-fog-of-w...

Fuente: 
The Economist
Fecha de publicación: 
Sábado, Mayo 29, 2021
Tema: 
Las armas autónomas y su regulación
Idea principal: 

La demostración más reciente de armas autónomas sucedió en el enfrentamiento entre Israel y Gaza en mayo de 2021. El “Domo de Hierro” es un sistema militar de defensa basado en algoritmos que ataca objetivos físicos en una batalla aérea –en este caso, misiles. Los sistemas autónomos están basados en inteligencia artificial; la calidad y confiabilidad de los resultados de la inteligencia artificial depende de la información recabada por los sistemas en su entorno.

Cuando la información es abundante y confiable, el sistema realiza su trabajo con un alto nivel de precisión. No obstante, en muchas ocasiones la información es poca, incompleta o sesgada. En un conflicto, el polvo, el humo o la vibración pueden dañar o afectar el funcionamiento de la cámaras, radares o sensores que recaban la información necesaria para que el sistema de defensa funcione. Además, los enemigos constantemente tratan de engañar a estos sistemas mediante camuflajes y otros trucos. Por si fuera poco, una mezcla de objetivos civiles y militares puede generar una gran cantidad de información confusa. En una zona de guerra, un algoritmo entrenado con bases de datos limitadas podría enfrentarse a información diversa y en cantidades masivas; en estas circunstancias, los sistemas de inteligencia artificial suelen ser muy imprecisos e incapaces ante cualquier situación que no fue prevista en su desarrollo.

De acuerdo con el Comité Internacional de la Cruz Roja muchas de las armas que hoy son controladas remotamente podrían ser convertidas en armas completamente autónomas con tan sólo una actualización en su software. El 12 de mayo de 2021 esta organización publicó un comunicado recomendando nuevas reglas para regular las armas autónomas, incluyendo una prohibición en aquellas que son “impredecibles” y cualquier arma que considere a seres humanos como su objetivo. Esto será discutido en diciembre de este año en la conferencia de la ONU sobre ciertas armas convencionales, que fue originalmente establecida en 1980 para prohibir el uso de las minas y otras armas “inhumanas”.

Países poderosos, como China, Estados Unidos o Rusia, son precavidos con estas regulaciones, dado que son cautelosos ante la posibilidad de brindar ventajas a sus rivales. En marzo de 2021, la Comisión Seguridad Nacional en Inteligencia Artificial, establecida por el Congreso de Estados Unidos, predijo que las armas autónomas pronto sobrepasarían las capacidades humanas y que una prohibición a este tipo de armas no sería ni posible ni estaría en el interés de Estados Unidos, dado el hecho que países como China o Rusia, muy probablemente no acatarían los reglas.

Datos cruciales: 

1. De acuerdo con el Comité Internacional de la Cruz Roja muchas de las armas que hoy son controladas remotamente podrían ser convertidas en autónomas con tan sólo una mejora en su software.

Nexo con el tema que estudiamos: 

Las armas controladas remotamente ya son una realidad, y, de acuerdo con el Comité Internacional de la Cruz Roja, podría ser convertidas en autónomas simplemente con una mejora en el software con el que operan. El problema con las armas autónomas es que aun no son confiables debido a las fallas que pueden presentar sus algoritmos cuando se presentan situaciones complejas o no previstas. Las guerras venideras, peleadas con esta nueva generación de armas, y probablemente causadas por razones económicas y/o sociales, amenazan con ser mucho más destructivas que cualquier guerra anterior.