Technology and society. How to worry wisely about artificial intelligence

Cita: 

The Economist [2023], "Technology and society. How to worry wisely about artificial intelligence", The Economist, London, 22 de abril, https://www.economist.com/leaders/2023/04/20/how-to-worry-wisely-about-a...

Fuente: 
The Economist
Fecha de publicación: 
Sábado, Abril 22, 2023
Tema: 
Entre utopías y distopías en torno a la inteligencia artificial, lo evidente es que necesitan legislación
Idea principal: 

Ante la fiebre e incertidumbre causada raíz del despliegue de ChatGPT —propiedad de OpenAI— en noviembre de 2022 y su posterior incursión en el motor de búsqueda de Microsoft (ahora conocido como Bing chat), el presente artículo de The Economist plantea preguntas y respuestas sobre los riesgos y oportunidades de los llamados grandes modelos de lenguaje (LLMs, por su sigla en inglés) puesto que han demostrado grandes capacidades para realizar determinadas tareas (dato crucial 1). Pero a la vez grandes defectos (como sugerir a un periodista que dejara a su esposa) que cuestionan sobre los peligros que podrían devenir de uso. En este sentido, el artículo explora el potencial de esta tecnología relacionada con la inteligencia artificial (IA), los riesgos existenciales reales y la respuesta del gobierno ante esta situación

Los primeros modelos de IA surgieron hace una década. Su entrenamiento (y limitante) se basaba en la cuidadosa selección de datos, una vez que tenían la cantidad suficiente de información podían aprender a reconocer imágenes o escribir texto. Con los LLMs la limitante de los datos ya no existe en virtud de que la información la obtienen de la gran base de datos de internet en tiempo real; eso también explicaría sus defectos y virtudes. Bajo esta lógica, la opinión pública augura un potencial para desarrollar nuevos fármacos, crear nuevos materiales que ayuden a combatir el cambio climático o entender la complejidad de la energía de fusión; no obstante, otro sector predice escenarios distópicos tal cual traídos del genero cinematográfico sci-fi que incluso ponen en cuestión a la humanidad misma sobre su futuro.

Entre incertidumbre, optimismo y pánico, la organización Future of Life Institute (una ONG) envió una carta pública en marzo de 2023 para pausar el desarrollo de IA avanzada; contó con la firma de expertos de la talla de Elon Musk; esto con la finalidad de analizar a profundidad los riesgos existenciales en torno a la IA. No es para menos debido a que el rápido avance de estas tecnologías (junto con sus habilidades y defectos) corren el riesgo de que no puedan ser controladas en un punto como sucedió con otras tecnologías en otras industrias. Pese a esto, las grandes firmas tecnológicas ya han comenzado a utilizar LLMs en sus principales herramientas de productividad (o planean hacerlo muy pronto).

¿Extinción o rebelión?

Históricamente, la implementación de la tecnología sí ha eliminado trabajos pero también ha creado nuevos. Las máquinas no han podido suplantar hasta hoy todas las tareas que realizan los humanos, incluso el hecho de que los LLMs sean capaces de hacer resúmenes o escribir código, no es prueba suficiente para pensar en el desplazamiento del trabajo humano.

A este respecto, la opinión entre expertos en IA está dividida puesto que algunos creen que en efecto los LLMs pueden desplazar al ser humano mientras que otros consideran lo contrario (dato crucial 3), además muchas de estas opiniones están basadas en especulación extrema (como que la IA en el largo plazo pueda acceder fácilmente a la energía, el dinero o los sistemas computacionales), sin embargo coinciden en su preocupación sobre su uso con fines distintos a los que fueron creados. Es por eso que se hace un llamado a la regulación de la IA por parte del estado.

La regulación es necesaria, pero no para atender el pánico generado por la sobre-especulación sino para apelar por cuestiones tangibles como la propiedad intelectual. En la medida en que avance la IA otros problemas pueden resultar evidentes pero el punto ahora es atender lo inmediato.

En materia de legislación, China es la nación que más regulaciones ha puesto a la IA al requerir de su registro para ser evaluada y aprobada para su uso. Le sigue Unión Europea al proponer regulaciones especificas por el uso de LLMs dependiendo del nivel de riesgo como la utilización de música hasta la publicidad subliminal o la biometría remota; bajo un monitoreo riguroso, las multas también incluyen a las empresas que comercialicen el software.

En ese marco, los países que han propuesto legislaciones más laxas son Reino Unido y Estados Unidos debido a que han planteado incluir a los riesgos por los LLMs en la actual legislación sobre la IA dado que pretenden incentivar la inversión en este nuevo rubro (si bien Estados Unidos considera plantear qué debería de contener una legislación sobre los LLMs).

Finalmente, The Economist considera que es necesaria una nueva legislación para la IA en materia de LLMs ya que si se convierte en una nueva rama de la industria, entonces deben de ser legislados como tal. En la medida que vaya avanzado este sector y existan riesgos más latentes, entonces serán necesarias nuevas legislaciones (como las que rigen a las armas nucleares) y ante esto, los gobiernos deberían de formar nuevos organismos que estudien sobre la seguridad y ética de la IA. En suma, ante las oportunidades y riesgos que ofrece esta nueva tecnología, diseñar las legislaciones es tarea para ahora.

Datos cruciales: 

1) Los grandes modelos de lenguaje (LLMs, por su sigla en inglés) han demostrado habilidades que incluso han impresionado a sus creadores tales como resolver rompecabezas o escribir código informático para identificar películas a partir de resúmenes escritos con emojis.

2) Cuando ChatGPT estuvo disponible para su descarga y uso gratuito en noviembre de 2022, cerca de 1 millón de personas lo utilizaron en una semana y 100 millones en dos meses. Los usos más frecuentes fueron realizar trabajos escolares y discursos para bodas.

3) Una encuesta entre desarrolladores de inteligencia artificial en 2022 arrojó que 48% considera que hay 10% de probabilidades de que la IA lleve al ser humano a la extinción; no obstante, 25% cree que el riesgo es de 0%. En términos generales, la encuesta mostró que la media de investigadores mantiene el riesgo en 5%.

Nexo con el tema que estudiamos: 

Ante las bondades y los riesgos que existen en torno al uso de la inteligencia artificial (IA) manifestada en los grandes modelos de lenguaje (LLMs) lo evidente es que se necesita de una nueva legislación para regular los experimentos y desarrollos en este sector puesto que ayudarían a prevenir sobre los riesgos que ahora se especulan (y que pareciera ser que se ridiculizan) y prevenir sobre posibles catástrofes. Evidencia de la necesaria regulación estatal es lo acontecido en la ciudad de Prípiat en 1986 mejor conocido como el accidente de Chernobyl que involucró la muerte no solo de personas sino de la biodiversidad de la zona a causa de la radioactividad por el uso de energía nuclear y que sus efectos persisten hasta nuestro días.