El nuevo temor relacionado con la IA: robots asesinos de Hollywood se convierten en herramientas del ejército

Cita: 

Sanger, David [2023], "El nuevo temor relacionado con la IA: robots asesinos de Hollywood se convierten en herramientas del ejército", The New York Times, New York, 10 de mayo, https://www.nytimes.com/es/2023/05/10/espanol/ia-armas-militares-nuclear...

Fuente: 
Otra
Fecha de publicación: 
Miércoles, Mayo 10, 2023
Tema: 
El desarrollo de IA en combate
Idea principal: 
En sus 40 años en el Times, David Sanger ha escrito extensamente sobre la intersección de la geopolítica, las armas nucleares y el control de armas. Sanger está radicado en Washington.

Mientras el presidente Joe Biden anunciaba las restricciones que se harían en cuanto a la venta de chips avanzados a China, para así poder recuperar su competitividad, en el Pentágono y el Consejo de Seguridad Nacional había otro objetivo en mente para esos chips: el control de armas.

La idea es que, al negarle el acceso a China de chips avanzados, se vería en la necesidad de desarrollar armas que sean operadas mediante inteligencia artificial lo que le daría tiempo al resto del mundo de idear normas para regular el uso de dichas armas y prevenir escenarios catastróficos. De manera que, esta medida de prohibición es solo una solución temporal. Al tratarse de tecnología tan avanzada, con tanto potencial, implican grandes riesgos.

Biden también propuso que el desarrollo de siguientes generaciones de ChatGPT y ese tipo de softwares fuera puesto en pausa; sin embargo, miembros del Pentágono aseguran que sería un error monumental pues traería gran desventaja tecnológica, ni China ni Rusia van a actuar igual, ellos seguirán desarrollando dicha tecnología.

En este punto experimental, no se sabe de qué serán capaces estas tecnologías, o lo que el control de armas operadas por inteligencia artificial podría ocasionar y cómo podría funcionar. Si bien sí se han llevado a cabo conversaciones para autorregulación y seguridad respecto a la inteligencia artificial, cada una de ellas ha sido informal.

Hace cinco años se inició el estudio del uso de la inteligencia artificial en combate, con el establecimiento del Centro Conjunto de Inteligencia Artificial del Pentágono. Desde entonces se fueron abriendo investigaciones y experimentos que han dado a luz armas con piloto automático. Los misiles Patriot derriban misiles o aviones que entran en espacio aéreo protegido de manera automática sin intervención humana, aunque si son supervisados, para cancelar ataques. Aun así, el Mosad de Israel asesinó a Mohsen Fakhrizadeh, el principal científico nuclear de Irán, usando una ametralladora automática operada por inteligencia artificial.

Aunque aún no hay acuerdos en torno al uso de este medio tecnológico en combate, más tarda en hacerse el acuerdo que lo que ya fue roto deliberadamente. Ya existe tecnología suficiente para acelerar el ritmo de la toma decisiones en batalla, realizadas por inteligencia artificial, de manera que la preocupación principal es cómo defenderse de ataques que son más rápidos que la toma de decisiones de un ser humano y qué hacer en caso de falsas alarmas.

En cuanto a este último problema, durante la Guerra Fría se presentó un caso de activación de ataque masivo inminente de manera accidental que, gracias al buen juicio de los encargados, no pasó de una alerta. Y como este se estima que hubo al menos 13 "casi incidentes" nucleares entre 1962 y 2002. Cada uno de estos incidentes fue evitado gracias a la actuación humana; sin embargo, sí se desarrolla tecnología para tomar decisiones rápidamente, más de lo que lo haría un humano, tal vez no se corra con la misma suerte. La buena noticia es que las grandes potencias serían en extremo cuidadosas con este tipo de armamento, principalmente por la respuesta que tendrían los oponentes.

Entonces, el verdadero riesgo está en la acción individual como terroristas, grupos de ransomware (secuestro de datos) o naciones pequeñas con habilidades cibernéticas avanzadas, como Corea del norte.

Danny Hillis, uno de los pioneros en la computación paralela usada para la inteligencia artificial, sostiene que, si se tiene elementos autónomos de armas es necesario un interruptor para apagarlo.

El líder de operaciones de confianza y seguridad de Microsoft, Tom Burt, considera que los sistemas de inteligencia artificial podrían ayudar a detectar amenazas y prevenir ataques; sin embargo, también es consciente de que podría "potenciar" la desinformación. Es por eso que expertos consideran que detener la propagación de sistemas de software como ChatGPT ya no es opción, lo único que queda es restringir los chips con esta capacidad tecnológica, más aún los potenciales al control de armas.

Nexo con el tema que estudiamos: 

Gracias a todos los avances que se han realizado en cuanto al desarrollo de software usado en la inteligencia artificial surge una problemática que gira en torno al uso de dicha tecnología en combate.

Se plantean soluciones normativas, la formulación de regulaciones y leyes que regulen su uso; sin embargo, la historia nos muestra que más tarda en hacerse acuerdos, que en lo que ya se han roto. Además, ni siquiera se considera como posible solución el descartar esta tecnología para este fin, seguirá desarrollándose, y en su intento de ser los primeros, se le dará total prioridad.