Meet GPT-3. It Has Learned to Code (and Blog and Argue)

Cita: 

Metz, Cade [2020], "Meet GPT-3. It Has Learned to Code (and Blog and Argue)", The New York Times, New York, 24 de noviembre, https://www.nytimes.com/2020/11/24/science/artificial-intelligence-ai-gp...

Fuente: 
Otra
Fecha de publicación: 
Martes, Noviembre 24, 2020
Tema: 
Una inteligencia artificial (IA) que ha aprendido bastante sobre el lenguaje humano y es capaz de escribir tweets, poesía e incluso de escribir programas computacionales
Idea principal: 

Cade Metz es corresponsal de tecnología de The New York Times que cubre inteligencia artificial, automóviles sin conductor, robótica, realidad virtual y otras áreas emergentes.


A mediados de 2020 el laboratorio sobre inteligencia artificial (IA) OpenAI presentó un nuevo sistema llamado GPT-3, un sistema de IA que ha estado aprendiendo bastante sobre el lenguaje humano, pues incluso ha podido escribir tweets y redactar su propia poesía.

El laboratorio OpenAI, es una organización independiente que, sin embargo, está respaldada económicamente por Microsoft, Google y Facebook. En un principio, los investigadores de OpenAI crearon a GPT-3 como parte de una tecnología conocida como "modelo de lenguaje universal" que es usada para sintetizar noticias y en “chatbots” para conversaciones en línea. El objetivo inicial al crear GPT-3 era crear una red neuronal que sirviera para predecir la siguiente palabra a partir de analizar la secuencia de palabras precedentes. Sin embargo, el GPT-3 fue mucho más allá y ha superado las expectativas de los investigadores que lo crearon. Debido a que esta red neuronal artificial ha sido "entrenada" con grandes bases de datos, incluso ha podido escribir código para computadoras.

Existen cuestionamientos sobre las capacidades reales que GPT-3 puede tener. Por ejemplo, Mark Riedl, investigador del Instituto tecnológico de Georgia, argumenta que a pesar de que puede articular una serie de párrafos bien estructurados, GPT-3 difícilmente tiene un objetivo, es decir que realmente no piensa en lo que escribe.

En un principio esta red neuronal recababa grandes bancos de datos sobre diversos tipos de literatura y textos en internet, y se buscaba que cuando una persona comenzara a ingresar palabras al sistema este pudiera predecir las siguientes. Sin embargo, pronto los investigadores se dieron cuenta que podía hacer tareas para las cuales no fue diseñada sin siquiera cambiar el código, solo insertando algunos pocos ejemplos referentes a un nuevo tema, por ejemplo, la composición de un código informático. Esta "cualidad emergente" sorprendió incluso a los creadores de GPT-3, pues al requerir de unos pocos ejemplos y poco tiempo de preparación para realizar tareas específicas supera ampliamente a sus antecesores. Los investigadores han denominado a esta característica "aprendizaje de pocos intentos" [few-shot learning] y GPT-3 podría ser el primer ejemplo de algo realmente poderoso.

OpenAI planea vender el GPT-3 a través de internet. No obstante, hasta ahora la organización ha tenido la precaución de hacer pruebas sólo con unos pocos usuarios, pues otros investigadores sugieren que el sistema no es seguro, ya que al recoger toda su información en internet, suele recoger también sesgos y lenguaje "tóxico" que puede caer en el racismo, sexismo y otras formas de odio. Además, se teme que el sistema pueda contribuir a la propagación de noticias falsas y desinformación. Por lo tanto es imprescindible que OpenAI siga monitoreando el comportamiento del sistema.

Por lo demás, el sistema no es perfecto, y aunque puede crear frases correctamente, este aún tiene errores. Esto plantea la duda de si efectivamente puede convertirse a largo plazo en un sistema conversacional efectivo, en una inteligencia autónoma, o si logrará imitar al cerebro humano. En cualquier caso la inversión para continuar con la investigación de este tipo de sistemas es muy elevada. Según Sam Altman, director ejecutivo de OpenAI, los costos pueden ascender a decenas de millones de dólares, pues procesar la gran cantidad de datos que hay en internet requiere de una supercomputadora especializada que funcione ininterrumpidamente durante meses.

Nexo con el tema que estudiamos: 

Como puede observarse con el GPT-3 la inversión requerida para la creación de IA proviene particularmente de empresas privadas ya encaminadas al ámbito de la tecnología como Google y Facebook. Por lo tanto, es relevante preguntarse cuáles son las necesidades a las que responde la creación de estas tecnologías; en este caso particular, ¿por qué se hace necesario crear una máquina que intente por lo menos imitar el lenguaje humano? Asimismo vale la pena preguntarse cuáles serían y cómo se ponen límites éticos a estas tecnologías, pues como bien menciona el artículo, estás en lugar de ayudar a la humanidad podrían contribuir a sumirla en la ignorancia y desinformación.