Los líderes del sector advierten sobre el 'riesgo de extinción' de la inteligencia artificial

Cita: 

Roose, Kevin [2023], "Los líderes del sector advierten sobre el 'riesgo de extinción' de la inteligencia artificial", The New York Times, New York, 31 de mayo, https://www.nytimes.com/es/2023/05/31/espanol/inteligencia-artificial-ri...

Fuente: 
Otra
Fecha de publicación: 
Jueves, Mayo 25, 2023
Tema: 
Líderes del sector tecnodigital tienen preocupaciones por el desarrollo de la inteligencia artificial
Idea principal: 

Kevin Roose es columnista de tecnología y autor de Futureproof: 9 Rules for Humans in the Age of Automation.


En la última semana de mayo de 2023 cientos de directivos y destacados investigadores e ingenieros relacionados con la industria de la inteligencia artificial (IA), como Sam Altman de Open AI o Demis Hassabis de Google Deep Mind, entre otros, firmaron una carta del Centro para la Seguridad de la IA. La carta señala que los avances en la industria de la IA podrían llegar a ser un peligro para la existencia de la humanidad, y que este riesgo debe ser abordado con la misma seriedad que los riesgos nucleares.

La carta se presenta justo en un clima de creciente preocupación por los posibles riesgos de la IA. Los avances en los grandes modelos de lenguaje (LLM, por sus siglas en inglés) como el que utiliza Chat GTP, han generado el temor de que la IA pueda usarse para promover la desinformación o sustituir a millones de trabajadores. Incluso hay quienes consideran que la IA puede llegar a generar trastornos sociales en poco tiempo.

Muchos de los temores que están generando los avances en IA son compartidos, de forma paradójica, por diversos líderes de la industria tecnodigital que impulsa el desarrollo de la IA. En mayo de 2023 Altman, Hassabis, y Amodei (director ejecutivo de Anthropic), se reunieron con Biden y Kamala Harris para hablar sobre la regulación de la IA. El propio Altman comentó que los sistemas avanzados de IA implican potenciales riesgos tan graves que tendrían que ser regulados y el gobierno debería intervenir.

De acuerdo con Hendrycks, director ejecutivo del Centro para la Seguridad de la IA, la carta es la salida a la luz de los temores de muchas personas que están al interior de la propia industria de la IA. Hay escépticos que sostienen que la IA apenas se está desarrollando como para representar una amenaza existencial. Pero hay otros que argumentan que la IA ya logró superar las capacidades humanas en ciertas áreas y pronto lo logrará en otras; por tanto, suponen que pronto la tecnología alcanzará una inteligencia artificial general que iguale e incluso supere la capacidad humana en diversas tareas.

Altman y otros dos ejecutivos de Open AI propusieron diversas formas para regular los sistemas de IA. Sugirieron la cooperación entre los principales fabricantes de IA, más investigación sobre los LLM, y la creación de una organización internacional de seguridad que regule el uso de la IA.

Anteriormente, en marzo de 2023 más de 1 000 personajes del mundo tecnológico, como Elon Musk, firmaron otra carta en la que solicitaron pausar por seis meses el desarrollo de los LLM, debido a la preocupación de una carrera fuera de control por crear sistemas de IA cada vez más potentes. Esta carta no contó con muchas de las firmas de los principales laboratorios de IA.

La carta del Centro para la Seguridad de la Inteligencia Artificial busca unir a todos los expertos en IA que consideran que esta contiene potenciales riesgos. Mientras tanto, las preocupaciones de los líderes de la IA se exacerban a medida que millones de personas recurren a los chatbots y se acelera el desarrollo de los LLM.

Nexo con el tema que estudiamos: 

Líderes del sector tecnológico parecen temerle a los avances en su propio campo de actividad. Más allá de los estériles debates sobre si la IA es o no es igual a la humana, ciertamente los avances en este campo pueden representar riesgos importantes como el aumento de la letalidad del equipo militar. Pero si realmente los líderes de este sector temen los peligros de la IA, entonces ¿por qué no paran? ¿acaso su inacabable voracidad les impide salirse de la carrera del desarrollo tecnodigital?

Otra cuestión que hay que precisar es en qué consisten esos riesgos existenciales: informaciones falsas o confidenciales que son reveladas por los sistemas de IA y producen quiebres financieros que pueden alcanzar dimensiones sistémicas, o conflictos políticos y sociales desatados por informaciones y conocimientos formulados por las diversas formas de IA. Quizá los más relevantes son las aún lejanas posibilidades de que formas de IA cobren "autoconciencia" y logren apoderarse de armas letales. En todo caso, el "temor" debe ser sustituido por análisis puntuales acerca de los retos que plantea el desarrollo de la IA.