What Exactly Are the Dangers Posed by A.I.?

Cita: 

Metz, Cad [2023], "What Exactly Are the Dangers Posed by A.I.?", The New York Times, New York, 1 de mayo,https://www.nytimes.com/2023/05/01/technology/ai-problems-danger-chatgpt...

Fuente: 
Otra
Fecha de publicación: 
Lunes, Mayo 1, 2023
Tema: 
Sobre la moratoria al avance de la inteligencia artificial que ha exhortado la organización Future of Life Institute
Idea principal: 
Cade Metz es reportero de tecnología en The New York Times y autor de ”Genius Makers: The Mavericks Who Brought A.I. to Google, Facebook and The World”, la historia de las personas, ideas y empresas detrás del rápido auge de la inteligencia artificial.

En la presente nota Cade Metz se centra en explicar los riesgos derivados del uso de la inteligencia artificial (IA) y los grandes modelos de lenguaje (LLM, por su sigla en inglés) luego de la carta pública redactada por Future of life Institute, organización que aborda los riesgos existenciales.

La carta publicada en marzo de 2023 y firmada por 1 000 expertos y líderes tecnológicos (ahora con más de 27 mil firmas) exhorta a un cese de los desarrollos de la IA por seis meses para analizar mejor los riesgos que pueden acontecer si siguen mejorando sus capacidades, de acuerdo con lo observado hasta ahora. Tal es el caso de comportamientos inesperados y despliegue de información sesgada, ofensiva o falsa, proceso conocido como “alucinación”. Se advierte que en la medida que los LLM se conecten con otros servicios de internet podrán mejorar aún más sus capacidades e incluso llegar a escribir y ejecutar su propio código.

Un LLM es una derivación de la IA que se centra en una red neuronal (como GPT-4 en ChatGPT propiedad de OpenAI) con la cual es capaz de aprender a partir de grandes cantidades de texto gracias a un sistema matemático. Así, este tipo de tecnología puede generar texto por si misma (tal es el caso de contenido literario, programas de computadora) e inclusive mantener una conversación “orgánica”.

La carta emitida por Future of Life Institute es de gran importancia puesto que entre sus simpatizantes se encuentran figuras de renombre como Elon Musk (dueño de Twitter y director ejecutivo de Tesla), Yoshua Bengio (involucrado en el desarrollo de GPT-4) y Yann LeCun (científico jefe de IA en Meta).

Bengio clama que aún no se comprende qué es lo que podría salir mal con los modelos de IA por lo que hay que tener cuidado. Aunque las firmas tecnológicas estén trabajando en reducir los errores de los LLM, se pronostica que en la medida que sean más potentes, se introducirán nuevos riesgos. Bajo este marco, las preocupaciones se centran en tres categorías en el corto, mediano y largo plazo: desinformación, pérdida de empleo y pérdida de control, respectivamente.

En lo que refiere a la desinformación, las alucinaciones generadas por los LLM pueden traer como efecto contraproducente la dificultad para distinguir entre lo que es real o lo que es ficción, porque nada garantiza que lo que arrojen estos modelos de IA sea correcto. Incluso puede ser un riesgo si se pretende utilizar como referente para cuestiones médicas y de salud en la toma de decisiones. De esta manera, la desinformación es un riesgo latente que incluso puede ser usado de manera incorrecta o delictiva.

En lo que respecta a la pérdida de empleos, OpenAI admite que es posible que la IA desplace a ciertas actividades realizadas por los humanos, tal es el caso de los moderadores de contenido en internet, asistentes legales y personales y traductores. En este aspecto, se espera que en el mediano plazo mucho trabajos rutinarios desaparezcan (dato crucial 2).

Finalmente, el riesgo existencial de pérdida de control ha sido catalogado por algunos expertos como hipotético y exagerado. Este se basa en la rapidez de aprendizaje de los LLM y una extrapolación en el largo plazo que puede llevar a que las cosas se tornen “extrañas” y que en ese camino la IA pueda destruir a la humanidad. En tal caso, mientras no existan un gobernanza real (regulación y legislación) para esta rama de la tecnología, las cosas se pueden salir de control.

Datos cruciales: 

1) Yoshua Bengio ,Yann LeCun junto con Geoffrey Hinton (hasta hace poco investigador de IA en Google) recibieron en 2018 el Premio Turing catalogado como el Nobel de la informática por su trabajo en redes neuronales.

2) Un artículo escrito por investigadores de OpenAI estimó que 80% de la fuerza laboral de Estados Unidos podría tener al menos 10% de sus trabajos afectados por la llegada de los grandes modelos de lenguaje (LLM, por su sigla en inglés). Además, se estima que 19% de los trabajadores podría verse afectado al menos en 50% de sus tareas.

Nexo con el tema que estudiamos: 

El artículo aporta un modo de evaluar los riesgos de la IA: desinformación, pérdida de empleo y pérdida de control, que corresponden al corto, mediano y largo plazo. En tanto riesgo existencial, el punto de inflexión se establece en la autoprogramación de los sistemas de IA.

La falta de gobernanza en torno a los avances de la también llamada inteligencia artificial generativa (IGA, por su sigla en inglés) conlleva a que las emociones e incertidumbres crezcan en torno a la posibilidad del desplazamiento de la humanidad, una obsolencia programada. En tal caso, las políticas de los actuales gobiernos parece ser que aún no toman en serio estas cuestiones, a excepción de China (obviamente por el tema del peligro a su forma de gobernar). También existen riesgos tangibles como los efectos de la inflación en el mundo, el cambio climático y los conflictos geopolíticos. No obstante, ser laxo en este tema puede que derive en algo que en el largo plazo en verdad sea difícil de controlar.