The future. Humans will add to AI's limitations. It will slow progress even more, but another AI winter is unlikely

Cita: 

The Economist [2020], "The future. Humans will add to AI's limitations. It will slow progress even more, but another AI winter is unlikely", The Economist, London, 13 de junio, https://www.economist.com/technology-quarterly/2020/06/11/humans-will-ad...

Fuente: 
The Economist
Fecha de publicación: 
Sábado, Junio 13, 2020
Tema: 
El progreso de inteligencia artificial y sus límites tecnológicos, éticos y políticos
Idea principal: 

En la década de 1950, Frank Rosenblatt, un psicólogo e investigador informático, desarrolló el perceptrón, el ancestro de los modernos algoritmos de aprendizaje automático. El adelanto se había desarrollado en una computadora IBM de 9 toneladas, con menos potencia que un moderno control remoto de televisión. Lo interesante estaba en su capacidad para aprender a reconocer las tarjetas impresas a la izquierda de las empresas a la derecha sin haber sido programado para ello.

Por ello, la Armada de Estados Unidos financió el proyecto esperando que fuera el principio de una computadora que pudiera caminar, hablar, ver, escribir, reproducirse y ser consciente de sí misma. Pero una forma segura de fracasar es establecer metas muy ambiciosas. Los influyentes investigadores Marvin Minsky y Seymour Papert en 1969 describieron en un libro cómo, en contraste con las expectativas, el percepton era incapaz de realizar ciertas tareas elementales. Como consecuencia, la investigación de redes neuronales menguó durante una década.

Así, la historia de la inteligencia artificial está compuesta por episodios periódicos de entusiasmo sobre esta tecnología, intercalados con “inviernos” de inteligencia artificial, en donde los límites de esta se hacen evidentes, terminando el entusiasmo y recortando el financiamiento. En 1973, debido al fracaso en cumplir las altas expectativas, el gobierno británico abandonó prácticamente todo financiamiento al desarrollo de inteligencia artificial. A raíz de la publicación del libro de Minsky y Papert, las investigaciones se centraron en el enfoque “simbólico”, basado en lógica formal y en un rígido razonamiento de “arriba-abajo”. Una vez más, el progreso temprano causó mucha emoción, antes de que las expectativas no satisfechas se acumularan lo suficiente como para causar otro retroceso en la década de 1980. Muchos proyectos, entonces, fueron cancelados debido a recortes presupuestales, ya que los funcionarios estadounidenses desestimaron la investigación en inteligencia artificial.

Según The Economist el entusiasmo actual ha sido el más intenso hasta ahora Por eso, muchos investigadores temen que, a medida que las limitaciones de la inteligencia artificial moderna se hagan presentes, un nuevo gran retroceso, proporcional a la caída en el entusiasmo, ocurra. Algunos comparan el entusiasmo por el aprendizaje profundo (deep learning) con el mercado de valores justo antes de que estalle una burbuja. Si bien, es imposible predecir cuándo estallará, es casi seguro que sucederá en algún momento.

Aunque esto es probable, para The Economist la desilusión podría venir no solo de la comprensión de las limitaciones de esta tecnología, sino de sus puntos fuertes. La capacidad de detectar patrones en grandes porciones de datos, con una exactitud sobrehumana, tiene muchas aplicaciones. Muchas empresas y gobiernos se han apresurado a adoptar algunas de estas, de formas que afectan directamente a la gente común. En países con regímenes autoritarios la gente tendrá poco poder de decisión sobre los usos de inteligencia artificial. China ya ofrece un ejemplo del perfeccionamiento del control social habilitado por la inteligencia artificial, en el estado policial que ha construido en Xinjiang con la ayuda del reconocimiento facial. Sin embargo, en las democracias la gente común, o sus representantes, tendrán algo que decir, ya que es poco probable su aceptación de forma acrítica.

El 5 de febrero, por ejemplo, un fallo de un tribunal holandés dictaminó la ilegalidad de syri, un sistema de inteligencia artificial diseñado para detectar fraudes fiscales y de beneficios sociales. El sistema procesa grandes cantidades de datos provenientes de varios departamentos gubernamentales para detectar irregularidades. El tribunal sostuvo que el gobierno no había logrado equilibrar su obligación de proteger la privacidad de sus ciudadanos y su obligación de tomar medidas contra el fraude fiscal. Sin embargo, Holanda no es el único lugar donde se aplican sistemas de inteligencia artificial de ese tipo; en Gran Bretaña y Australia están utilizando sistemas similares. Por otra parte, investigadores que esperan aplicar la inteligencia artificial en la batalla contra la pandemia de Covid-19, podrían considerar una encuesta que arrojó que cerca de la mitad de los estadounidenses se negarían a instalar en sus teléfonos una aplicación de seguimiento y localización.

En ese sentido, un estudio de 2019 de la Facultad de Derecho de la Universidad de Nueva York y el AI Now Institute examinó los algoritmos predictivos de la policía. Estos algoritmos son usados por las fuerzas policiales para saber dónde desplegar mejor sus oficiales con base en las tendencias extraídas de los datos históricos. El estudio encontró 13 jurisdicciones, entre ellas Chicago y Nueva Orleans, que estaban investigando esta tecnología y concluyó que cuando se aplican estos algoritmos sobre datos con sesgos raciales se corre el riesgo de reforzar y respaldar estos mismos sesgos con la mística de la inteligencia artificial. Inquietudes de este tipo están presentes incluso en China, donde una encuesta reciente encontró que 74% de los encuestados están descontentos con el uso creciente de la identificación por reconocimiento facial.

Cada vez más, los investigadores de inteligencia artificial tienen que lidiar con este tipo de problemas. Hace un par de años, Google publicó un conjunto “principios de inteligencia artificial”, que estipulan que estos sistemas deben: ser beneficiosos socialmente, evitar crear o reforzar sesgos injustos y ser construidos y probados de forma segura. Por su parte, Facebook y Microsoft han hecho compromisos similares. Aunque el campo de la “seguridad de la inteligencia artificial” es aún incipiente, está creciendo. El hecho de que esta tecnología está siendo desarrollada por los gigantes de internet ha soslayado las preguntas de orden ético o sobre sus consecuencias, para girar en torno su precisión y su aplicación en la publicidad y las redes sociales.

En realidad, las redes sociales son un ejemplo de una reacción adversa a la inteligencia artificial. Muchos gobiernos, preocupados por el auge de teorías de conspiración y la desinformación promovida por algoritmos que priorizan la “interacción” (engagement) sobre todo lo demás, están creando leyes para obligar a las empresas a mitigar los impactos negativos.

Por otro lado, según el semanario británico la inteligencia artificial está creando empleos, y no destruyéndolos. Facebook actualmente emplea a 15,000 personas como moderadores de contenido humano para vigilar sus algoritmos, el doble de los que empleó en 2017.

Para el presidente de Microsoft, Brad Smith, en lugar de preguntar qué puede hacer la inteligencia artificial, deberíamos de preguntarnos qué debe hacer. Las limitaciones tecnológicas de la inteligencia artificial nos llevarán a imponer otros límites, de orden político y social.

Los algoritmos tendrán que encontrar su lugar en el mundo de los humanos, concluye The Economist.

Nexo con el tema que estudiamos: 

La inteligencia artificial y la transversalidad de sus aplicaciones está modificando y reestructurando muchas industrias y procesos. Sin embargo, la implementación de esta tecnología ha resultado ser algo más complicado de lo que se pensó, el desafío en los próximos años consistirá, por un lado, en superar sus propias limitaciones técnicas, al tiempo que, por otro lado, se le imponen límites a sus aplicaciones en la sociedad.