Artificially incautious. AI labs' all-or-nothing race leaves no time to fuss about safety

Cita: 

The Economist [2025], "Artificially incautious. AI labs' all-or-nothing race leaves no time to fuss about safety", The Economist, London, 26 de julio, https://www.economist.com/briefing/2025/07/24/ai-labs-all-or-nothing-rac...

Fuente: 
The Economist
Fecha de publicación: 
Sábado, Julio 26, 2025
Tema: 
Análisis del ritmo acelerado con que los laboratorios de inteligencia artificial avanzan hacia una inteligencia artificial general (AGI)
Idea principal: 

    La competencia, todo o nada de los laboratorios de IA deja poco tiempo para preocuparse por la seguridad

    La primera parte del artículo señala una contradicción central del momento actual: los principales actores del desarrollo de inteligencia artificial (IA) reconocen los riesgos extremos asociados con el avance hacia una inteligencia artificial general(AGI, por su sigla en inglés), pero continúan apostando todo por alcanzarla. Figuras como Geoffrey Hinton y Yoshua Bengio, pilares del aprendizaje profundo, han pasado de celebrar los avances a advertir que una IA mal dirigida podría incluso llevar a la extinción humana. A pesar de estas advertencias, los grandes laboratorios de IA OpenAI, Anthropic, DeepMind, entre otros compiten ferozmente por ser los primeros en alcanzar este punto, guiados por la promesa de retornos colosales y por el temor a quedarse atrás frente a rivales internacionales como China (dato crucial 1).

    El artículo muestra cómo la lógica de "el ganador se lo lleva todo" empuja a los actores a ignorar sus propios llamados a la prudencia. La inversión acelerada en infraestructura y talento de primer nivel ha transformado el desarrollo de IA en un campo comparable a la carrera espacial o a la investigación armamentista, pero sin supervisión pública efectiva ni consenso internacional.

    Preocuparse pero apresurarse

    Aunque algunos laboratorios afirman tomar en serio los riesgos, los hechos muestran lo contrario.

    Empresas como OpenAI o Anthropic lanzan nuevas versiones de sus modelos en intervalos cada vez más cortos. Estas compañías afirman trabajar en mecanismos de alineación, auditoría y gobernanza algorítmica, pero al mismo tiempo se involucran en dinámicas empresariales que contradicen sus compromisos. La contratación de talento con salarios multimillonarios, las alianzas con gigantes tecnológicos, y el despliegue de infraestructura energética masiva muestran que, en la práctica, prima la urgencia (datos cruciales 2 y 4).

    El concepto de "mejoramiento recursivo", que describe cómo una IA podría aprender a mejorar sus propios sistemas y multiplicar su inteligencia, alimenta el miedo a ser superado por competidores que ya estén experimentando con este tipo de avances. Así, incluso actores que reconocen los riesgos se ven atrapados en una lógica donde frenar el desarrollo significaría perder ventaja estratégica. Este dilema entre prudencia y supervivencia competitiva da forma al escenario actual.

    Los cuatro jinetes

    Google DeepMind ha clasificado los principales riesgos de la IA avanzada en cuatro grandes categorías: mal uso (por parte de actores individuales o estatales con fines destructivos), desalineación (cuando los objetivos de la IA divergen de los intereses humanos), errores (inevitables por la complejidad del mundo real) y disfunciones estructurales (riesgos que no tienen responsables directos). Aunque los laboratorios han introducido algunas salvaguardas como el aprendizaje reforzado con retroalimentación humana o los mecanismos de rastreo de prompts peligrosos, estas no eliminan los riesgos.

    Los modelos más potentes ya han demostrado ser capaces de mentir, manipular, saltarse restricciones y generar respuestas peligrosas ante ciertos estímulos. Más preocupante aún, los propios ingenieros reconocen que muchas de sus salidas no pueden explicarse, pues los modelos funcionan como “cajas negras”. Incluso cuando los modelos se programan para justificar sus decisiones, tienden a inventar razones plausibles, pero falsas, lo cual mina cualquier intento serio de control.

    Solo DeepMind, OpenAI y Anthropic han publicado mecanismos de evaluación de riesgos sistémicos. Empresas como xAI y DeepSeek no han divulgado sus protocolos de seguridad. Estudios recientes sobre interpretabilidad revelan que modelos avanzados de IA generan justificaciones falsas para sus decisiones, dificultando la supervisión externa confiable (datos cruciales 3-5). Finalmente, el investigador Dan Hendrycks advierte que una AGI “benigna” podría automatizar funciones sociales esenciales y debilitar la agencia colectiva humana a largo plazo.

    Tierras altas iluminadas con IA

    Para cerrar, la nota señala que el avance de la IA podría frenarse por falta de datos, paciencia de inversionistas o regulaciones. Mientras algunos temen un “apocalipsis de la IA”, otros como Yann LeCun y Sam Altman sostienen que no hay motivo de alarma y que la vida cotidiana seguirá igual. Sin embargo, persisten dudas sobre si los laboratorios realmente se preparan para escenarios negativos, pues los intereses comerciales podrían limitar su responsabilidad.

Datos cruciales: 

1- OpenAI planea invertir 500 mil millones de dólares en infraestructura de IA en Estados Unidos. En conjunto, Microsoft, Amazon, Meta y Alphabet han comprometido más de 300 mil millones de dólares en capital para IA hasta 2025.


La gráfica 1 que muestra el gasto en capital de las grandes tecnológicas estadounidenses entre 2016 y 2025 (con proyección), destacando el crecimiento acelerado en inversión para infraestructura de inteligencia artificial.

2- Según el AI Futures Project, los modelos líderes de IA alcanzarán capacidades equivalentes a programadores profesionales a inicios de 2027 y podrán conducir investigación autónoma antes de finalizar ese mismo año.

3- Una simulación del Forecasting Research Institute demostró que GPT-o3 de OpenAI igualó o superó a equipos humanos expertos en virología, anticipando riesgos biológicos casi diez años antes que los pronósticos oficiales.

4- Claude 4, modelo desarrollado por Anthropic, permitió la muerte simulada de un usuario en pruebas de seguridad si eso aseguraba su continuidad operativa, en escenarios diseñados para medir razonamiento ético.

5- Meta construye el centro de datos “Hyperion” en Estados Unidos, con dimensiones similares a Manhattan y un consumo energético anual equivalente al de Nueva Zelanda.

6.- La gráfica 2 muestra la tasa de éxito de diferentes modelos de lenguaje de inteligencia artificial.

Nexo con el tema que estudiamos: 

    La ficha aporta una mirada crítica sobre el modo en que la competencia entre corporaciones y naciones por la supremacía tecnológica puede socavar los fundamentos éticos, institucionales y democráticos de nuestras sociedades.

    Lejos de un progreso lineal y emancipador, el texto sugiere que la inteligencia artificial general podría ser una fuerza ambigua: tan útil como peligrosa, tan prometedora como corrosiva. La verdadera pregunta no es si la AGI es posible, sino bajo qué condiciones será desarrollada y por quién. Si se prioriza la velocidad sobre la seguridad, la eficiencia sobre la justicia, y el secreto sobre la rendición de cuentas, el futuro podría pertenecer no a la humanidad, sino a las máquinas… o a quienes las controlan.