Model major-general. How AI is changing warfare

Cita: 

The Economist [2024], "Model major-general. How AI is changing warfare", The Economist, London, 22 de junio,https://www.economist.com/briefing/2024/06/20/how-ai-is-changing-warfare

Fuente: 
The Economist
Fecha de publicación: 
Jueves, Junio 20, 2024
Tema: 
El uso estatal de la Inteligencia Artificial en la guerra.
Idea principal: 

    La Inteligencia Artificial comienza a ser una de las principales herramientas utilizadas por las corporaciones estatales.

    En 2021 la Marina Real británica trabajó con los gigantes tecnológicos Microsoft y Amazon para dotar a sus fuerzas armadas de nuevas tecnologías. Las empresas colaboraron con algunos fabricantes de armas y contratistas militares (BAE Systems y Anduril) para desarrollar "StormCloud", una nueva herramienta bélica basada en inteligencia artificial. Este innovador sistema integra drones y armamento convencional con software avanzado y tecnología en la nube. Sirve para coordinar hipotéticos ataques con misiles y es definido como "la cadena de destrucción mas avanzada del mundo" (mas rapida y confiable que las cadenas de mando tradicionales).

    El uso de la IA se extiende a zonas de conflicto (como Gaza y Ucrania) y su gasto aumenta rápidamente (dato crucial 1). En perspectiva de un posible enfrentamiento entre grandes potencias. Los especialistas advierten que la Inteligencia Artificial puede transformar las dinámicas guerra; mas opaca, rápida e inhumana.

    Prosaico pero lucrativo

    La principal utilidad de la Inteligencia Artificial en el ejército es apoyo vital en tareas de mantenimiento, logística y personal. Estados Unidos ya utiliza estos algoritmos para gestionar su logística, prediciendo cuando Ucrania necesitará mas cañones. También califica el ascenso de sus soldados con modelos entrenados con datos. Se calcula que IA podría ahorrarle al ejército estadounidense millones de dólares de mantenimiento al mes (dato crucial 2).

    Rusia y Ucrania también emplean la Inteligencia Artificial para desarrollar software de drones (cuyos chips, necesarios, pueden valer 100 dólares). Al combinar drones con nuevos sistemas de mando y controles digitalizados como "StormCloud", la Inteligencia Artificial puede transformar la guerra, permitiendo a los soldados de primera lineal obtener información en tiempo real.

    Se espera que adelantos computacionales como el "software de conversión de voz a texto" o proyectos gubernamentales de "visión por computadora" -como "Spotter" y "Marven" (dato crucial 3 y 4)- tengan un uso estatal y supere las capacidades de detección humanas. La IA también puede procesar información compleja como ruidos u objetos en medio de algún desorden: la Marina Real, por ejemplo, comienza a probar barcos autónomos para ubicar minas submarinas por medio de sonares. La alianza de Estados Unidos, Australia y Gran Bretaña en el pacífico (AUKUS) desarrolla un "algoritmo trilateral" para procesar datos acústicos de sonoboyas.

    Igualmente, las Fuerzas de Defensa de Israel (FDI) emplean herramientas militares basadas en la Inteligencia Artificial como "Lavender", un sistema de soporte a decisiones (DSS), similar a los empleados por Estados Unidos en Vietnam y en la "Lucha Contra el Terrorismo". "Lavender" se usa para identificar objetivos humanos en Gaza y, según +972 Magazine (medio israelí), quienes lo operan solo hacen escrutinio superficiales antes de ordenar ataques. The Economist señala que, en la práctica, es un software de espionaje virtual que une datos distintos (registros telefónicos, imágenes satelitales y otras formas de inteligencia) para visualizar conexiones entre personas y lugares.

    ¿Explicar u ordenar?

    El software actual, con mayor potencia de cálculo, algoritmos sofisticados y datos de redes neuronales, empieza a desdibujar la línea entre conceptos militares como la capacidad de acción y la interpretar datos. Mejoras que comienzan a verse en zonas de conflicto (en la guerra ruso-ucraniana) y también podrían servir para acortar el tiempo de las actividades de búsqueda, reconocimiento y análisis de objetivos "de horas a minutos". La Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA) también trabaja un proyecto IA que mezcla la interpretación y el "Control y Comando": el "Motor de Caos Estratégico para la Planificación, Tácticas, Experimentación y Resiliencia" (SCEPTER), para generar planes de combate en tiempo real.

    Elogios y quejas

    El creciente papel de la IA en la guerra trae consigo grandes debates éticos y morales. Varios expertos advierten de algunos peligros de la Inteligencia Artificial en zonas de guerra: se dice que no puede discernir las intenciones "hostiles" de las normales y sus redes neuronales podrían ser engañadas fácilmente. Contrariamente, la Fuerza Aérea Real de Reino Unido y las FDI argumentan (comparando el rendimiento de las máquinas con el de los seres humanos), que los sistemas basados en IA son mas precisos y -probablemente- produzcan menos falsos positivos. Los encargados de "StormCloud" también piensan que el salto tecnológico reducirá drásticamente las incertidumbre en los ataques.

    Aunque el uso bélico de la IA sin supervisión humana podría violar deliberadamente las leyes internacionales, también podría reducir significativamente los riesgos civiles. Es el debate entre los mas "tecno-optimistas" y quienes ven a la IA con una gran preocupación. Mientras, se discute en organismos internacionales (Naciones Unidas) si restringir o prohibir los "sistema letales de armas autónomas".

    La carrera armamentista de la IA es impulsada por el miedo de las potencias a no quedarse atrás tecnológicamente. Distintos estados comienzan a formularla como una posible herramienta de toma de decisiones críticas: estrategias futuras, predicciones y, concretamente, acciones nucleares (dato crucial y y 6). En este contexto, la poca comprensión de sus capacidades y limitaciones de la IA también supone un nuevo riesgo existencial.

    Permaneciendo al tanto

    La prioridad de los estados que desarrollan la tecnología es "construir armas que puedan evadir interferencias y destruir tanto armamento como sea posible". Las guerras no convencionales y de alta intensidad están impulsando un mando humano despreocupado sobre la Inteligencia Artificial. Esto puede intensificarse en el caso de una guerra abierta entre potencias: un conflicto "multidominio", por ejemplo, donde el big data< y la IA son empleados para identificar vulnerabilidades clave de manera rápida.

    El acceso de China a grandes cantidades de datos preocupa a Estados Unidos. En la lucha por la vanguardia tecnológica, ambas potencias destinan un nivel comparable de atención a las aplicaciones IA (dato crucial 7).

    La Inteligencia Artificial puede cambiar radicalmente la toma de decisiones en la guerra, sin embargo, aun es vista por muchos como una herramienta poco confiable y no del todo escalable. Aunque la prioridad estatal parece ser la adopción rápida y "segura", todo parece indicar que la revolución IA en la industria militar es una posibilidad lejana en la mayoría de los ejércitos nacionales (dato crucial 8 y 9).

Datos cruciales: 

    1) El gráfico 1 muestra el presupuesto solicitado por el Departamento de Defensa de Estados Unidos (miles de millones de dólares) para financiar el desarrollo de Inteligencia Artificial de 2020 a 2025.

    2) Según la Corporación RAND, un think thank especializado en políticas globales y consultoría de empresas, el mantenimiento predictivo de la IA a los aviones de guerra A-10C puede ahorrarle a la fuerza aérea estadounidense 25 millones de dólares al mes.

    3) El Ministerio de Defensa británico desarrolla un proyecto IA llamado "Spotter" que utiliza redes neuronales para monitorear automáticamente objetos en imágenes satelitales. Su entrenamiento requirió 25 mil objetos etiquetados por empresas privadas.

    4) Desde 2017 Estados Unidos trabaja en el Proyecto "Maven". El software de detección funciona con imágenes y videos de drones desplegados en Afganistán, Irak y Ucrania. Ha detectado 93 mil incendios en zonas de guerra.

    5) Durante la Guerra Fría la Union Soviética desarrolló el sistema de lanzamiento automático de misiles nucleares "Perimetr". Se cree que actualmente sigue en funcionamiento y depende de un software de Inteligencia Artificial.

    6) En 2023 Estados Unidos impulsó un proyecto de ley que bloquea el lanzamiento de armas nucleares por "Inteligencia Artificial Autónoma". Prohíbe el uso de fondos federales para sistemas no sujetos a "un control humano significativo".

    7) El gráfico 2 muestra una comparativa del porcentaje de contratos militares sobre Inteligencia Artificial adjudicados por Estados Unidos y China entre abril a noviembre del 2020.

    8) El Pentágono destina sólo 1% de su presupuesto a desarrollar software.

    9) La financiación gobierno británico para la segunda fase de "StormCloud" apenas alcanzó 10 millones de libras.

Nexo con el tema que estudiamos: 

Los diferentes usos de la inteligencia Artificial en la guerra plantean diversos riesgos existenciales. Aunque el software cada vez mas avanzado se muestra como una herramienta paradigmática que podría "solucionar" diversos problemas militares, arrastra problemas humanitarios, éticos y morales a analizar desde la caracterización del capitalismo del siglo XXI y su relación con la industria armamentística, la violencia y el necropoder.

El desarrollo "mixto" de la Inteligencia Artificial, entre estados y corporaciones privadas es un ejemplo fundamental de la relación "capital internacional-instituciones gubernamentales" en la economía, la guerra, y la lucha por la hegemonía tecnológica y científica durante nuestro siglo.