¿Cuáles son los riesgos del armamento que funciona con IA?
Lipton, Eric [2023], "¿Cuáles son los riesgos del armamento que funciona con IA?", The New York Times, New York, 24 de noviembre, https://www.nytimes.com/es/2023/11/24/espanol/inteligencia-artificial-ri...
-
Eric Lipton es un periodista de investigación del New York Times, que explora una amplia gama de temas, desde el gasto del Pentágono hasta los productos químicos tóxicos.
En el ámbito militar, el surgimiento de la inteligencia artificial (IA) ha generado un debate crucial sobre la necesidad y la forma de regular su aplicación en el campo de batalla. Este debate se centra en la cuestión de si las decisiones críticas, incluso las relacionadas con la vida y la muerte, deben ser delegadas a programas de IA.
La tecnología ha experimentado una evolución significativa, permitiendo el desarrollo de diversas armas autónomas y sistemas de apoyo militar que aprovechan la IA para mejorar la eficiencia y la precisión en operaciones militares. Estos avances han generado preocupaciones éticas y legales sobre el uso indiscriminado de la IA en situaciones de conflicto.
¿Qué tan nuevas son estas armas?
La evolución de la inteligencia artificial (IA) ha alcanzado un nivel en el que los sistemas de armas pueden tomar decisiones independientes respecto a la identificación y el ataque de objetivos. Estos avances recientes en la tecnología de IA han avivado el debate sobre los sistemas de armas letales autónomas.
Aunque parezca algo nuevo, las armas autónomas tienen antecedentes que se remontan al siglo XIX, como el "proyectil subterráneo" desarrollado por Gabriel Rains durante la Guerra de Secesión en Estados Unidos. Estas minas funcionan sin intervención humana, sin distinguir entre objetivos y posibles víctimas inocentes.
El Pentágono comenzó a expandir las armas automáticas desde hace décadas
A finales de la década de 1970, Estados Unidos comenzó a ampliar el concepto de armas automáticas con la introducción de la mina antisubmarina CAPTOR. Esta mina podía ser desplegada desde aviones o barcos, y una vez colocada en el fondo del océano, se activaba automáticamente cuando los sensores detectaban la presencia de un objetivo enemigo. Este desarrollo marcó un avance significativo en la autonomía de las armas y planteó nuevas preguntas sobre su uso ético y legal en el campo de batalla (dato crucial 1).
El siguiente paso en la evolución hacia armas autónomas más sofisticadas fueron las municiones autoguiadas, diseñadas para la táctica de "disparar y olvidar" (por ejemplo el misil aire-aire de medio alcance AIM-120, equipado con un buscador de radar, ajusta la trayectoria del misil durante el vuelo para impactar con precisión a aeronaves enemigas). Una vez disparadas, estas municiones generalmente no pueden ser recuperadas y poseen cierto grado de autonomía para ajustar su trayectoria. Sin embargo, Paul Scharre, un ex alto funcionario del Pentágono describe esta autonomía como "limitada", lo que sugiere que todavía requieren cierto nivel de supervisión o control humano.
Las “municiones merodeadoras” pueden ser altamente automatizadas
El conflicto en Ucrania ha destacado el uso de un tipo de armamento automatizado conocido como municiones merodeadoras, con antecedentes desde 1989. Recientemente, contratistas militares estadounidenses han comercializado versiones similares de estas municiones con ojivas explosivas (tal es el caso de la Switchblade600, un arma autónoma, localiza objetivos como tanques y dispara una ojiva antiblindaje después de sobrevolar la zona de operaciones).
Aunque actualmente se requiere la aprobación humana antes de que el arma ataque un objetivo, existe la posibilidad de eliminar por completo la intervención humana, convirtiendo el dispositivo en completamente autónomo. La tecnología para llevar a cabo misiones de manera autónoma de principio a fin ya está disponible, con la excepción del acto de disparar el arma.
Desatar enjambres de drones podría implicar un cambio mayor
El Pentágono está desarrollando enjambres de drones autónomos, potencialmente formando redes de cientos o miles de unidades mejoradas con IA para tareas de vigilancia o incluso de transporte de armas. Este es solo un ejemplo de los múltiples esfuerzos en curso para desplegar drones económicos y autónomos, algunos de los cuales podrían tener capacidades letales.
Se espera que para 2025 estos drones puedan operar incluso en condiciones donde las señales de GPS y las comunicaciones estén bloqueadas. Aunque algunos contratistas militares han afirmado que aún pasarán años antes de que los ataques controlados por IA sean completamente autónomos debido a la falta de fiabilidad en los algoritmos más avanzados, existe un debate sobre si estos drones deben tomar decisiones autónomas de vida o muerte.
Mientras tanto, algunas empresas como Palantir Technologies, contratista militar de IA, sugieren que la IA mejorará la toma de decisiones de los oficiales militares al analizar rápidamente grandes volúmenes de datos. Sin embargo, existe una preocupación generalizada en las Naciones Unidas sobre los riesgos asociados con estos nuevos sistemas, que marcan una diferencia significativa en comparación con las armas autónomas anteriores.
-
1. Desde la década de 1980, numerosos barcos de la Armada han adoptado el sistema de armas AEGIS, que emplea un radar de alta potencia para detectar y seguir misiles enemigos entrantes.
-
El avance de la inteligencia artificial en el ámbito militar se desarrolla en un contexto de competencia global por la hegemonía, donde empresas, estados y coaliciones luchan por el liderazgo económico. Este proceso refleja la dirección que está tomando el desarrollo de armamento impulsado por IA, evidenciando la influencia estatal en la competencia intercapitalista y en la evolución de la tecnología bélica. En este sentido, la intersección entre los intereses corporativos, las agendas estatales y la dinámica del poder mundial requiere un análisis crítico y una supervisión cuidadosa.