A.I. Is Making It Easier to Kill (You). Here's How

Cita: 

Kessel, Jonah, Natalie Reneau y Melissa Chan [2019], "A.I. Is Making It Easier to Kill (You). Here's How", The New York Times, New York, diciembre, https://www.nytimes.com/video/technology/100000006082083/lethal-autonomo...

Fuente: 
Otra
Fecha de publicación: 
Diciembre, 2019
Tema: 
Un video que discute la incorporación de la inteligencia artificial en los sistemas de armas en la actualidad.
Idea principal: 

El video elaborado por The New York Times discute los sistemas de armas autónomos y muestra que las armas con inteligencia artificial no son una idea futurista sino una realidad actual.

La misma tecnología que está haciendo más sencilla nuestra vida cotidiana, es utilizada en armas: los programas de reconocimiento facial que sirven para desbloquear los teléfonos celulares son también utilizados para que sistemas de armas identifiquen sus objetivos; los drones para localizar a montañistas perdidos y para tomar fotografías panorámicas también se utilizan para lanzar misiles; el software de los vehículos autónomos es el mismo que usan los tanques de guerra no tripulados del ejército ruso.

Los ejércitos y empresas militares de todo el mundo están introduciendo tecnologías digitales (y, en particular, la inteligencia artificial) en sus sistemas de armas, pues saben que su implementación pueden darles ventajas estratégicas. Esta situación está generando preocupaciones en científicos, diplomáticos y en la sociedad. Algunas personas temen que la automatización de las armas está yendo demasiado lejos y que la incorporación de la inteligencia artificial a los sistemas de armas podría conducir a la invención de máquinas asesinas que escapen al control humano.

¿Qué problemas plantea el uso de la inteligencia artificial en la construcción de sistemas de armas? En el video se presentan entrevistas a distintos expertos sobre el tema, que exponen sus puntos de vista y sus preocupaciones sobre lo que significa la guerra en la era de los algoritmos.

En primer lugar, entrevistan a Stuart Russell, un importante investigador en inteligencia artificial y uno de los principales detractores del uso de esta tecnología con fines militares en los llamados “robots asesinos” (sistemas de armas que localizan, seleccionan y atacan objetivos humanos). Para Russell, la preocupación inmediata no radica en la posibilidad de inventar robots que tengan voluntad propia y decidan salir a matar, sino en que las tecnologías necesarias para armas con cierto grado de autonomía (por ejemplo, enjambres de drones cargados con explosivos) ya existen y son baratas, fáciles de utilizar y escalables. El potencial destructivo de esos sistemas de armas es enorme. Sus efectos pueden ser devastadores si todo funciona bien; si algo falla –hackeos, errores en la escritura del código, etc.–, puede ser mucho peor.

Posteriormente, entrevistan a Paul Scharre, un ex-militar e investigador del think tank Center for a New American Security, quien afirma que no son los militares sino las grandes empresas tecnológicas quienes están desarrollando la inteligencia artificial. Scharre coincide en que las tecnologías necesarias para fabricar sistemas de armas autónomos ya existen en la actualidad. Destaca que aunque algunos sistemas de armas existentes ya utilizan inteligencia artificial, no son suficientemente flexibles para adaptarse a los entornos cambiantes y caóticos de la guerra. Scharre apunta que, al igual que ha sucedido con revoluciones previas en la tecnología militar, es probable que la creciente automatización de las armas no ayude a reducir el tamaño de los ejércitos ni el número de bajas. Plantea también que la construcción de sistemas de armas autónomos implica dificultades éticas y legales.

Por último, entrevistan a Jody Williams, ganadora del premio Nobel de la paz por su impulso a la prohibición de las minas terrestres y vocera de la “Campaña para detener a los robots asesinos” [Campaign to stop killer robots], una organización que busca la prohibición de todos los sistemas de armas que puedan identificar objetivos y atacarlos de manera autónoma. Williams afirma que el principal aliado del avance de los “robots asesinos” es la pasividad de los gobiernos para regularlos. Aunque en Naciones Unidas hay debates relativos a la prohibición de los sistemas de armas completamente autónomos, los procedimientos existentes no hacen posible su prohibición, pues todos los acuerdos de las convenciones que regulan el uso de armas deben aprobarse por unanimidad y comúnmente hay al menos un país que se opone (generalmente, Estados Unidos, Rusia, Israel o Corea). Además, la posición de Estados Unidos, Rusia y China suele ser que no se puede prohibir algo que no existe; para Williams, esa posición implícitamente deja la puerta abierta al desarrollo de sistemas de armas completamente autónomas.

Stuart Russell considera que algunos países entorpecen deliberadamente las discusiones sobre cómo definir y regular las armas autónomas con el objetivo de ubicarse en la vanguardia de esas tecnologías. La existencia o no de sistemas de armas autónomos es debatible, pues depende en buena medida de cómo se les defina. Aunque aún no hay sistemas de armas con inteligencia artificial general (esto es, con las mismas capacidades intelectuales que un ser humano y con flexibilidad para adaptarse a situaciones nuevas), ya existen sistemas de armas que pueden utilizar inteligencia artificial para identificar, localizar y atacar objetivos sin intervención humana en situaciones específicas. Y las capacidades tecnológicas avanzan de forma acelerada.

“En la carrera en curso entre tecnología y diplomacia, la tecnología está ganando porque en esta carrera la naturaleza dual de la tecnología significa que el software diseñado para hacer nuestra vida más sencilla claramente tiene aplicaciones militares”.

Los realizadores del video concluyen que la inteligencia artificial está modificando la guerra y el lugar de los humanos en el campo de batalla ¿Esto generará menos bajas en el campo de batalla? ¿Cómo se definirá quién gana una guerra en la era de los algoritmos? Esas preguntas y otras permanecen abiertas.

Nexo con el tema que estudiamos: 

Una de las transformaciones tecnológicas y organizativas más importantes por las que atraviesa la guerra en la actualidad, consiste en el desarrollo de los sistemas de armas autónomos (sistemas de armas con inteligencia artificial capaces de identificar, localizar y atacar objetivos sin necesidad de intervención humana). Los sistemas de armas autónomos, representan una mutación en la naturaleza de la guerra y en los medios para llevarla a cabo. Los sistemas de armas autónomos y las tecnologías que los hacen posibles son claves en la competencia por el liderazgo tecnológico, en la pugna por la supremacía militar y en la disputa por la hegemonía mundial. Representan un avance hacia la abstracción de la vida social; aunque los imaginarios espectacularizados destacan la autonomía total de los sistemas automáticos (automatismos que ya no dependen de los humanos para funcionar y reproducirse) como el horizonte generalmente distópico, es preciso dar un paso atrás para reflexionar sobre la importancia estratégica de las tecnologías y sus creadores que hoy día ya permiten operaciones sin supervisión humana: se trata de instancias y ámbitos en que pueden surgir nuevos sujetos dominantes y antagonistas, un escenario de disputa por el gran poder capitalista.

Más sobre el uso de la inteligencia artificial en la guerra y sobre los sistemas de armas autónomos: https://www.alainet.org/sites/default/files/alem_544.pdf.