The next AI explosion will be defined by the chips we build for it. Specialized AI chips are the future, and chipmakers are scrambling to figure out which designs will prevail

Cita: 

Hao, Karen [2019], “The next AI explosion will be defined by the chips we build for it. Specialized AI chips are the future, and chipmakers are scrambling to figure out which designs will prevail”, MIT Technology Review, Cambridge (MA), 26 de marzo, https://www.technologyreview.com/s/613202/the-next-ai-explosion-will-be-...

Fuente: 
Otra
Fecha de publicación: 
Martes, Marzo 26, 2019
Tema: 
as innovaciones en los microprocesadores como condición de posibilidad y catalizador de la inteligencia artificial.
Idea principal: 

Karen Hao es la reportera sobre inteligencia artificial de la MIT Technology Review. Escribe sobre la ética y los impactos sociales vinculados a esta tecnología.


El artículo reseña algunas de las actividades que tuvieron lugar en EmTech Digital, la conferencia sobre inteligencia artificial organizada por la MIT Technology Review durante la última semana de marzo de 2019.

En ese evento, Bill Dally, científico en jefe de la fabricante de chips Nvidia, sostuvo que han sido las mejoras en diseño de hardware, y no los algoritmos, la principal fuerza detrás de los avances recientes en el área de inteligencia artificial.

Para sostener su afirmación, Dally recurrió a la historia de la inteligencia artificial: muchos de los algoritmos que se utilizan hoy día fueron diseñados desde la década de 1980; por otra parte, el uso de grandes cantidades de datos etiquetados para entrenar “redes neuronales” viene de inicios de la década de 2000. No obstante, no fue sino hasta inicios de la década de 2010, cuando comenzaron a ser utilizadas las unidades gráficas de procesamiento (GPUs), que la “revolución del deep learning” realmente tomó vuelo. Por esa razón, Dally considera que para que la inteligencia artificial continúe avanzando es necesario desarrollar hardware cada vez más capaz.

Para lograrlo, Nvidia está explorando tres caminos:
1. El desarrollo de chips altamente especializados: los microprocesadores altamente especializados que son diseñados para tareas computacionales específicas pueden superar el desempeño de los chips diseñados para llevar a cabo funciones generales.

2. La reducción de la capacidad de cómputo requerida para el aprendizaje profundo [deep learning]: se conoce como “poda” [pruning] a la práctica consistente en reducir el número de cálculos que deben llevarse a cabo durante el entrenamiento de un sistema con aprendizaje profundo sin sacrificar su precisión. Según Nvidia, se pueden omitir alrededor de 90% de esos cálculos y mantener el mismo nivel de precisión. Esto permite que las mismas actividades de aprendizaje puedan llevarse a cabo utilizando arquitecturas de procesadores más pequeñas.

3. La experimentación con arquitecturas de microprocesadores analógicas (en lugar de digitales): algunos científicos argumentan que la computación analógica permitiría un procesamiento más eficiente, pues a diferencia de la computación digital (que almacena la información en series de ceros y unos) permitiría codificar todo tipo de valores. La computación análogica exigiría un nuevo diseño de chips.

Por su parte, Naveen Rao, vicepresidente corporativo y director general del grupo de productos de inteligencia artificial de Intel, sostuvo que los tipos de chips a utilizar (especializados o flexibles, digitales o análogos) y sus estructuras determinan las diferentes capacidades de codificación y manipulación de la información que se pueda llevar a cabo.

Por ejemplo, conforme hay más dispositivos conectados a internet, no siempre tiene sentido enviar la información a la nube para que se procese en un modelo de aprendizaje profundo. En algunos casos puede ser más útil procesar la información en un modelo de deep learning pequeño, eficiente e integrado en el dispositivo. Esta idea, que se conoce como “inteligencia artificial en el dispositivo” [on-device AI] o “inteligencia artificial en el borde” [on the edge AI] podría beneficiarse de nuevas arquitecturas de chips especializadas que son más eficientes. Por otra parte, “los centros de datos que alimentan a la ‘inteligencia artificial en la nube’ podrían funcionar sobre arquitecturas de procesadores completamente flexibles y programables”, para llevar a cabo tareas de aprendizaje más amplias.

Las investigaciones que lleven a cabo empresas como Intel y Nvidia influirán fuertemente sobre el diseño de los microprocesadores y en el futuro de la inteligencia artificial.

Nexo con el tema que estudiamos: 

A contrapelo del sentido común que piensa que la inteligencia artificial son sólo algoritmos altamente especializados, los directores tecnológicos de grandes corporaciones tecnológicas apuntan a una cuestión esencial: los microprocesadores han sido una de las condiciones clave para el auge reciente de la inteligencia artificial; su importancia en este proceso es igual o incluso mayor que la de la generación masiva de datos y el diseño de nuevos algoritmos.

Hasta ahora, la inteligencia artificial ha consistido en que la información generada mediante los dispositivos (teléfonos, sensores, etc.) se envía a la "nube", donde es procesada mediante algoritmos que permiten que los sistemas mejoren su desempeño. Actualmente, comienza a utilizarse una nueva forma de la inteligencia artificial, en que los dispositivos incorporan chips altamente especializados para que procesen la información generada sin necesidad de conectarse a la nube. Esto trae consigo mejoras en velocidad, seguridad y privacidad.

En cuanto a las aplicaciones militares de estas tecnologías, la incorporación de chips altamente especializados para la utilización de inteligencia artificial sin necesidad de conectividad a la nube permitiría que los dispositivos militares se utilizaran en contextos cada vez más complejos, donde la conectividad a internet es limitada.