A stochastic parrot in every pot. What does a leaked Google memo reveal about the future of AI

Cita: 

The Economist [2023], "A stochastic parrot in every pot. What does a leaked Google memo reveal about the future of AI?", The Economist, London, 13 de mayo, https://www.economist.com/leaders/2023/05/11/what-does-a-leaked-google-m...

Fuente: 
The Economist
Fecha de publicación: 
Sábado, Mayo 13, 2023
Tema: 
El reciente memorándum filtrado de Google predice una descentralización de la inteligencia artificial
Idea principal: 

El reciente memorándum filtrado de Google hace tres afirmaciones importantes sobre los pronósticos acerca de la inteligencia artificial (IA):

• Los desarrolladores de código abierto están encontrando diferentes formas para generar sus propios grandes modelos de lenguaje (LLM, por su sigla en inglés) utilizando recursos gratuitos de internet debido a la técnica de adaptación de bajo rango (LoRa, por su sigla en inglés) que permite optimizar un LLM más rápido y de forma más económica que un modelo tradicional.

• La barrera de entrada se ha reducido puesto que los beneficios del código abierto se reducen a generar un LLM incluso desde una sola computadora portátil. Con esto se puede construir este tipo de IA con tan solo 100 dólares y esto es algo en donde Google no puede competir.

• Google no tiene una estrategia definida de defensa (ni OpenAI) contra los desarrolladores de código abierto.

Estas tres afirmaciones han causado un revuelo entre los adeptos de la industria tecnológica y los expertos debido a que podría representar un punto de inflexión para el desarrollo de esta industria naciente que hasta hace poco se creía estaría dominada por un puñado de empresas dado el alto gasto de capital que se necesitaba para la creación de los LLM; una tecnología impulsada por IA capaz de generar texto y mantener conversaciones realistas.

Esta tesis está apoyada en el recuerdo de dos memorándum de otras empresas tecnológicas, elaborados en un contexto ajeno a la aparición de ChatGPT (el primer LLM puesto a disposición del público propiedad de OpenAI). En tal sentido, en 1995 “Maremoto de internet” de Bill Gates reorientó a Microsoft hacia su incursión en la web; en 2002, “Mandato API” de Jeff Bezos llevo a Amazon hacia la construcción de la computación en la nube. De esta manera, se cree que esta filtración anónima de Google representa el futuro de la IA.

La facilitación de la supuesta creación de los LLM reside en el hecho de la difusión del código del modelo de IA Llama, propiedad de Meta, cuando fue filtrado en internet en marzo de 2023. Aunque es de menor tamaño (puede manejar 7 mil millones de parámetros en comparación con 540 mil millones del modelo Palm de Google), es suficiente para que se pueda adaptar a un modelo básico como el primero que presentó ChatGPT. Después de esto, la creatividad de los desarrolladores de código abierto se ha desatado.

La fiebre iniciada por OpenAI y posteriormente Microsoft (en colaboración con OpenAI) en 2022 y 2023, respectivamente, obligaron a otras grandes firmas tecnológicas a crear o acelerar sus IA, tal es el caso de Google. Ante esto se pensó que únicamente estas empresas podrían sostener la construcción y mantenimiento (costoso en ambos lados) de este tipo de tecnología. El memorándum filtrado de Google parece indicar todo lo contrario, las tendencias de la industria apuntan hacia una diversificación de este mercado.

No obstante, tales afirmaciones también se ponen en duda por el hecho de que a pesar de que internet funciona con código abierto existen muchas empresas que venden software de código cerrado tal es el caso de los esquemas lucrativos de Microsoft y Adobe Photoshop. Ciertamente, no se niega el hecho de que esta filtración también indica que se está trazando un camino hacia una IA más democratizada en términos de disponibilidad al público.

Sin embargo, esta disponibilidad abierta tiene tanto ventajas como desventajas. Aumentará la transparencia y seguridad ya que el código de los LLM podrá ser evaluado por expertos en IA, además de que hará que se vuelva más económico y que permita mayor innovación. Pero junto con esto, significa que también puede caer manos equivocadas (como regímenes totalitarios) y ser utilizado para fines distintos con los que fue creado, lo que haría difícil su regulación.

Nexo con el tema que estudiamos: 

Es difícil trazar el futuro de una industria naciente en solamente suposiciones de documentos de las empresas líderes. Hay que recordar que OpenAI, en palabras de su fundador Sam Altman, se creó bajo los principios del código abierto (e incluso sigue argumentado lo mismo), esto remite al hecho de que el software con código abierto ya existía desde la década de los noventas junto con la aparición de sistemas operativos libres basados en GNU/Linux. Esto no significó que las empresas como Microsoft o Apple vieran sus número de ventas disminuir y terminaran desplazas por el software abierto y en muchos casos gratuito.

Asimismo, el estancamiento del internet descentralizado (WEB 3.0) y las D-Apps (aplicaciones descentralizadas) es un indicador que muestra una tendencia diferente hacia las preferencias del usuario, la población en general. Puede que haya una proliferación de IA más democrática pero el gran capital, poder de marca e influencias que tienen los grandes de la industria tecnológica es indudable y difícil de competir.

Incluso ante un esquema no lucrativo de grandes modelos de lenguaje, los riesgos existenciales son más grandes puesto que estarán a disposición del público en general. Esto hace difícil pensar que una tecnología pueda proliferar si no genera ganancias además del riesgo latente de ser utilizado por regímenes autoritarios o “democráticos” con fines bélicos (recordando también una mayor captación de datos para su mercantilización). De este modo, también quienes desarrollan los programas de código abierto deben poner en cuestión el uso de las tecnologías que crean.