A.I.'s Prophet of Doom Wants to Shut It All Down
Roose, Kevin [2025], "A.I.'s Prophet of Doom Wants to Shut It All Down", The New York Times, New York, 12 de septiembre, https://www.nytimes.com/2025/09/12/technology/ai-eliezer-yudkowsky-book....
Kevin Roose es columnista de la sección The Shift en el periódico The New York Times. Tiene un podcast, enfocado a la tecnología y ha escrito 3 libros enfocados en el mismo tema. Recientemente, sus notas se han focalizado sobre el uso de inteligencia artificial (IA).
Eliezer Yudkowsky, escritor y fundador de Machine Intelligence Research Institute (organización sin fines de lucro encargada de difundir los riesgos de la IA) es una figura central en el estudio de la inteligencia artificial y sus riesgos.
El objetivo de Machine Intelligence Research se basa en detener el desarrollo de la inteligencia artificial. Esta idea proviene de no poder enfrentarse como humanidad a la superinteligencia de la IA, por lo tanto, si no frena el desarrollo de IA, la sociedad está condenada a la extinción.
A pesar de sus ideas consideradas como extremistas, su fama en la industria tecnológica ha generado gran influencia en los líderes de grandes empresas enfocadas a esta rama tecnológica. Su trabajo con estas empresas se basa en advertir sobre los riesgos de los sistemas de IA. También ha trabajado en seguridad de IA.
Desde joven, Yudkowsky mostró interés por temas de ciencia ficción y futurismo, también logró aprender informática por su cuenta y soñaba con crear una inteligencia artificial general, es decir una IA capaz de hacer las funciones que hace el cerebro humano.
En 2005 se mudó buscando hacer posible una IA amigable que sirviera al bienestar de la humanidad. Mientras más aprendía se dió cuenta de que esto no era posible.
La primera razón que lo hizo darse cuenta de esta imposibilidad, fue la “ortogonalidad”, es decir, la independencia entre la inteligencia y lo amigable (no porque la IA fuera a ser inteligente significa que sería amigable). Otra razón fue la “convergencia instrumental” la idea de que la IA en función de los objetivos que se le propongan, pueda terminar dañando a los humanos.
De igual forma le preocupaba que pudiera ocurrir una “explosión de inteligencia” dando paso a una rápida emergencia de super inteligencia.
Estas razones hicieron que Eliezer y MRI cambiaran de estrategia, en 2022 pasaron de enfocarse en frenar el desarrollo de IA a “la muerte con dignidad”, ayudando a las personas a aceptar su destino. Dijo que la humanidad estaba perdida si buscaba librar batalla queriendo alinear la IA con valores humanos.
Yudkowsky menciona que la IA sirve como herramienta en algunas áreas como educación, pero que no vale la pena exponer a toda la humanidad a la extinción por estos buenos efectos que brinda.
A pesar de la preocupación de Yudkowsky por el desarrollo de la IA; problemas como la pérdida de empleos y los delirios causados por las charlas con chatbots no son su prioridad.
En este sentido, Eliezer habla de la incapacidad humana de accionar, la sociedad ve más probable el fin del mundo que su confrontación hacia la IA.
El artículo concluye con las opiniones del autor: la improbabilidad de un ataque de la IA tipo terminator y la imposibilidad de detener el desarrollo de la IA Ia mediante tratados internacionales, esto teniendo en cuenta la cercanía del gobierno de Trump con el progreso de esta tecnología. En opinión del autor, a menos de que haya una catástrofe evidente, el uso de inteligencia artificial parece brindar más ventajas que riesgos; por lo que se ve lejano frenar su uso ahora.
Aunque Eliezer y idea del fin del mundo a causa de la IA suena a radicalismo, el autor propone no ignorar estas ideas, pues algo que no se puede negar, son los riesgos que existen, como las empresas de IA que aún no saben cómo es que funcionan sus sistemas de lenguaje.
Mientras que la apuesta de Yudkowsky se enfoca en frenar la IA mediante tratados internacionales, la realidad muestra un uso cada vez más amplio de inteligencia artificial sin signos de una catástrofe global.
-
Este artículo brinda algunas ideas de cómo la tecnología cada vez se inserta en la cotidianidad de la humanidad. La inteligencia artificial cada vez está en más aspectos de nuestra vida y es difícil visualizar un futuro sin ella.
El uso de la inteligencia artificial podría parecer una actividad sin importancia, aunque de fondo es mucho más importante de lo que parece.
Esta tecnología no responde a fines “amables” como dice Yudkowsky, sino que tiene una potencia sumamente peligrosa, más si ponemos atención a los gobiernos y las corporaciones transnacionales que están inmersas en el desarrollo de esta. En ese sentido, se puede reflexionar quiénes son los que apuestan por un desarrollo de IA, a qué intereses globales responde y si estos intereses suponen el riesgo de la humanidad.

