Microsoft Says New A.I. Shows Signs of Human Reasoning

Cita: 

Metz, Cade [2023], "Microsoft Says New A.I. Shows Signs of Human Reasoning", The New York Times, New York, 16 de mayo, https://www.nytimes.com/2023/05/16/technology/microsoft-ai-human-reasoni...

Fuente: 
Otra
Fecha de publicación: 
Martes, Mayo 16, 2023
Tema: 
Un artículo publicado por investigadores de Microsoft afirma que la inteligencia artificial puede compararse con la inteligencia humana
Idea principal: 

Cade Metz es corresponsal tecnológico y autor de Genius Makers: The Mavericks Who Brought A.I. to Google, Facebook, and The World. Cubre inteligencia artificial, coches autónomos, robótica, realidad virtual y otras áreas emergentes.


En esta entrega Cade Metz aborda las propiedades de los grandes modelos de lenguaje (LLM, por su sigla en inglés) y la inteligencia artificial general (IAG) analizando el artículo publicado por Microsoft en marzo de 2023 titulado Sparks of Artificial General Intelligence.

En 2022, los investigadores de Microsoft le pidieron a la inteligencia artificial (IA) resolver un reto para evaluar su capacidad intuitiva con el mundo físico. El reto consistía en apilar correctamente un libro, nueve huevos, una computadora portátil, una botella y un clavo. El resultado general asombró puesto que la IA dijo: “Pon la computadora portátil encima de los huevos, con la pantalla hacia abajo y el teclado hacia arriba. La computadora portátil encajará perfectamente dentro de los límites del libro y los huevos y su superficie plana y rígida proporcionará una plataforma estable para la próxima capa”.

Las investigaciones con IAG comenzaron a ser estudiadas hace cinco años por empresas como Google, Microsoft y OpenAI (ahora estas dos últimas firmas tiene una colaboración) con la creación de los LLM. Los beneficios inmediatos de esta tecnología son la generación de textos de diferente grado de complejidad y la capacidad de mantener conversaciones gracias al análisis de grandes cantidades de texto procedentes de internet.

El artículo de Microsoft indicaba que la IAG significaba un paso hacia una máquina capaz de trabajar como el cerebro humano. Ante esto, las interrogantes aparecieron entre los adeptos e involucrados en la industria tecnológica que se preguntaban si se estaba creando algo similar a la inteligencia humana o simplemente los investigadores se estaban dejando llevar por su imaginación; cuestiones que también remontan a investigaciones pasadas sobre los riesgos de construir máquinas que superen el intelecto humano.

Aunque se ponga en duda la reputación de los investigadores de Microsoft sobre tales afirmaciones sobre la inteligencia artificial (hacer aseveraciones sobre la definición de inteligencia puede resultar complejo y salir de las actividades normales de un laboratorio informático para parecer más debates filosóficos), parece que la gran firma tecnológica se ha tomado en serio el análisis del tipo de “inteligencia” que ha mostrado el desarrollo de la IAG con la reorganización de sus áreas de investigación para dedicar una de ellas específicamente a esta cuestión, y que incluyen al autor principal del artículo citado, Sébastien Bubeck (dato crucial 1).

Cuando Bubeck y sus colegas probaron GPT-4, realizaron una serie de experiencias a partir de indicaciones de texto para evaluar sus capacidades entre las que destacan pruebas matemáticas, creación de contenido visual, evaluación de la salud de una persona, hasta la redacción de escritos de corte político y filosófico. Los resultados arrojaron sorpresas para los desarrolladores puesto que mostró habilidades matemáticas y lingüísticas excepcionales, habilidad para generar código informático y crear contenido visual y estadístico (en este sentido para determinar si una persona era propensa a diabetes en base a ciertas características), y en general, la comprensión de una gran cantidad de campos del conocimiento humano como la política, la física, la historia, la informática, la filosofía y la medicina.

No obstante, a pesar de mostrar tales destrezas, el artículo de Microsoft es pretencioso para un sector de investigadores ya que la verdadera IAG requiere que esta tecnología manifeste una cognición sobre el mundo físico y eso no lo posee GPT-4. Incluso y de acuerdo con Maarten Sap (investigador de la Universidad de Carneige Mellon), se reconoce que el artículo es subjetivo e informal y que no cumple con las normas de evaluación científica. En este sentido, Microsoft ha dicho que lo redactado fue hecho en base a una versión de GPT-4 previa a la lanzada oficialmente (misma que no había sido ajustada ante la información errónea o sensible que puede generar un LLM) por lo que la información tampoco puede ser verificada por otros expertos.

Finalmente, en lo que respecta a la analogía de los LLM con el razonamiento humano, Ece Kamar, directora de investigación en Microsoft dice que estos modelos no siempre son consistentes en lo que generan. Por otro lado, la profesora de psicología y experta en inteligencia artificial, Alison Gopnik, asegura que los sistemas de GPT-4 en efecto son potentes pero compararlos con la inteligencia humana no es la manera correcta para analizarlos porque no se trata de una competencia. La investigadora afirma que eso es resultado de la tendencia a antropomorfizar todo.

Datos cruciales: 

1) En 2022, Google despidió a un investigador que afirmó que un sistema de inteligencia IA similar era sensible. Hacer tal afirmación puso en duda su reputación e incluso es algo más temerario que lo que publicó Microsoft puesto que un sistema de IA sensible no solo sería inteligente sino que sería capaz de percibir sensaciones del mundo físico.

2) Se considera que la tecnología utilizada por Microsoft y OpenAI —GPT-4—es la más potente de la inteligencia artificial general (IAG). Microsoft colabora con OpenAI y hasta ahora ha invertido 13 mil millones de dólares en la empresa con sede en San Francisco, California.

Nexo con el tema que estudiamos: 

El presente artículo de nuevo reafirma la necesidad de realizar investigaciones sobre la "inteligencia" que presentan los grandes modelos de lenguaje no solo por el campo de la informática y computación sino de otros campos procedentes de las ciencias sociales puesto que ante las destrezas y alucinaciones que arroja este tipo de inteligencia artificial, los riesgos que giran entorno a su uso pueden generar catástrofes en la sociedad que tanto pueden ser basadas en la especulación como en la laxitud de la gobernanza de estos desarrollos.

Destacamos la necesidad de sacar el análisis de la IA de las comparaciones con la inteligencia humana. En tanto automatismo creado por humanos, su lógica es instrumental y por tanto, escapa a las características y prácticas humanas. Lo más relevante son las capacidades y los logros que pueda alcanzar, muchos de los cuales serán muy por encima de lo humano (por ejemplo, capacidad de cálculo y predicciones. En este otro terreno aparecen los retos de una tecnología que se retroalimenta y al menos de manera abstracta, puede escapar al control humano, más por fallas que por decisiones o malicia, características que no pueden desarrollar los autómatas.