Published on LET (https://let.iiec.unam.mx)


Accelerate like hell. An AI disaster is getting ever closer

Enviado por Edoardo Luna en Mar, 03/10/2026 - 18:49
Cita: 

The Economist [2026], "Accelerate like hell. An AI disaster is getting ever closer", The Economist, 7 de marzo, https://www.economist.com/briefing/2026/03/05/an-ai-disaster-is-getting-... [1]

Fuente: 
The Economist
Fecha de publicación: 
2026
Revista descriptores: 
Empresas transnacionales y gobernanza mundial [2]
Estudios de caso: actividades - empresas [3]
Fronteras del capital [4]
Relación economía y guerra [5]
Relaciones entre empresas estados y sociedad [6]
Tema: 
Conflictos políticos y dilemas de seguridad en el desarrollo de la inteligencia artificial
Idea principal: 

    The Economist. Es una publicación semanal en lengua inglesa, con sede en Londres, que aborda la actualidad de las relaciones internacionales y la economía mundiales.


    Donald Trump atacó públicamente a Anthropic, empresa estadounidense de inteligencia artificial dedicada al desarrollo de modelos avanzados de IA, y ordenó a las agencias federales suspender el uso de su tecnología. Su reacción reflejó el dilema que rodea a esta tecnología: gobiernos la consideran una herramienta estratégica indispensable, aunque también reconocen los riesgos que implica.

    Trump introdujo una contradicción en el mismo mensaje al afirmar que utilizaría el poder de la presidencia para obligar a Anthropic a colaborar con el gobierno durante un periodo determinado. La empresa presentada como un problema para el Estado apareció al mismo tiempo como un actor necesario para sus operaciones.

    Anthropic advirtió sobre posibles usos dañinos de sus modelos, mientras el gobierno estadounidense impulsa su integración en las fuerzas armadas para acelerar el desarrollo militar de inteligencia artificial.

    Danza de la seguridad

    Dario Amodei, director ejecutivo y cofundador de Anthropic, atribuyó el conflicto entre la empresa y el gobierno estadounidense a tensiones políticas con la administración de Donald Trump y acusó al Departamento de Defensa de difundir afirmaciones falsas sobre la compañía. La disputa comenzó cuando Anthropic, empresa estadounidense dedicada al desarrollo de modelos avanzados de inteligencia artificial, defendió la necesidad de mantener salvaguardas legales que impidan el uso de sus sistemas en vigilancia masiva o en armas completamente autónomas.

    Pete Hegseth, secretario de Defensa de Estados Unidos, rechazó esas limitaciones y defendió el derecho del gobierno a utilizar inteligencia artificial en cualquier forma que considere legal. Desde esa posición acusó a Anthropic de realizar un gesto corporativo de aparente virtud y advirtió que podría clasificar a la empresa como un riesgo para la seguridad nacional, una designación que normalmente se aplica a compañías extranjeras asociadas con espionaje o sabotaje. También señaló que empresas que mantengan contratos con el ejército estadounidense no podrían realizar actividades comerciales con Anthropic.

    Una medida de ese tipo afectaría no solo a la empresa, sino también a clientes, proveedores e inversionistas vinculados con el sector tecnológico y de defensa. Anthropic sostiene que el secretario de Defensa no tiene autoridad para imponer un aislamiento comercial total y que únicamente podría restringir el uso de la IA Claude, modelo de inteligencia artificial desarrollado por la empresa, en contratos militares.

    A pesar del conflicto, el gobierno estadounidense depende en parte de las capacidades tecnológicas de Anthropic, ya que su modelo destaca especialmente en programación y ha sido utilizado en entornos vinculados con información militar sensible.

    Refugio de seguridad

    Anthropic surgió cuando varios investigadores abandonaron OpenAI por considerar insuficiente el compromiso de esa organización con el desarrollo seguro de la inteligencia artificial. Desde su creación la empresa intenta diferenciarse dentro de una industria dominada por promesas tecnológicas y competencia intensa por ingenieros especializados.

    Dario Amodei, director ejecutivo de la compañía, insiste en que los sistemas actuales poseen una capacidad de análisis y manipulación de información que supera el ritmo de adaptación de las leyes.

    Existió confrontación con el equipo de Donald Trump después de que Anthropic defendiera límites al uso de inteligencia artificial en vigilancia masiva o en armas autónomas. La polémica atrajo atención pública hacia la empresa y hacia su modelo Claude. Redes sociales y figuras conocidas promovieron su uso, lo que generó un aumento repentino de usuarios y una visibilidad inesperada para la compañía.

    Amodei advierte que herramientas capaces de procesar enormes volúmenes de datos pueden transformar prácticas legales de vigilancia en mecanismos mucho más intrusivos de control social. Sus declaraciones reflejan una preocupación creciente dentro del propio sector tecnológico sobre las consecuencias del desarrollo acelerado de estos sistemas.

    Se firmó una carta por empleados de OpenAI y Google en apoyo a la necesidad de establecer límites más claros en la industria. Ese gesto refleja tensiones internas en las grandes empresas tecnológicas, donde parte del personal teme que la presión política y económica obligue a acelerar proyectos sin considerar plenamente sus riesgos.

    Aparecen también preocupaciones sobre posibles desastres asociados con la inteligencia artificial. Directivos del sector hablan de un momento crítico que revelaría los peligros reales de la tecnología si ocurre un accidente grave o un uso indebido a gran escala. Bajo presión del mercado y de la competencia internacional, muchas empresas enfrentan incentivos para avanzar con rapidez aun cuando persisten dudas sobre las consecuencias.

    Se observan riesgos crecientes en ámbitos como la ciberseguridad. Modelos de inteligencia artificial ayudan a detectar fallos en sistemas informáticos, pero esas mismas capacidades permiten que actores maliciosos identifiquen vulnerabilidades, desarrollen software dañino o elaboren mensajes diseñados para engañar a usuarios.

    Aumenta también la preocupación en el campo biológico. Herramientas de inteligencia artificial aplicadas al diseño de proteínas pueden facilitar la creación de sustancias peligrosas difíciles de detectar mediante los mecanismos actuales de control. Empresas tecnológicas desarrollan salvaguardas para evitar esos usos, aunque investigadores han demostrado que algunas de esas barreras pueden ser burladas.

    Se intensifica además el uso de inteligencia artificial para entrenar nuevos sistemas de inteligencia artificial. Ese procedimiento complica la comprensión humana de lo que ocurre dentro de los modelos y aumenta el riesgo de comportamientos inesperados. Anthropic reconoce que emplea esta práctica de forma amplia para desarrollar versiones más avanzadas de sus sistemas.

    Permanece finalmente una competencia internacional cada vez más fuerte. Laboratorios chinos muestran menor preocupación pública por las discusiones sobre seguridad, mientras empresas occidentales enfrentan presiones para mantener liderazgo tecnológico. Ese contexto empuja a la industria a acelerar el desarrollo de inteligencia artificial incluso cuando sus riesgos se vuelven más evidentes.

    Borrador de seguridad

    En la industria china de inteligencia artificial predomina el uso de modelos de código abierto. Empresas como DeepSeek, Moonshot y Alibaba permiten que sus sistemas se descarguen y se utilicen libremente por quienes cuentan con el hardware adecuado. Ese esquema dificulta supervisar el uso de la tecnología. Varias salvaguardas aplicadas por laboratorios como OpenAI, entre ellas mecanismos que observan conversaciones de usuarios e intervienen cuando se rompen normas de seguridad, no funcionan cuando los modelos circulan sin control.

    Al mismo tiempo, la presión comercial también alcanza a las empresas occidentales. Anthropic suavizó su política sobre la publicación de modelos potencialmente peligrosos y ahora sostiene que simplemente evitará encabezar la venta de ese tipo de sistemas. Dario Amodei explicó que imponer límites estrictos pierde sentido cuando los competidores continúan avanzando sin restricciones comparables.

    El debate político sobre inteligencia artificial también cambió de tono. Iniciativas impulsadas por Rishi Sunak se centraban al inicio en la seguridad tecnológica, pero después el discurso internacional comenzó a destacar las oportunidades económicas de la innovación. Amodei advierte que esa transición deja en segundo plano riesgos cada vez más cercanos.

    Aun así, organizaciones dedicadas al estudio de la seguridad de la inteligencia artificial continúan evaluando sistemas y señalando amenazas. Sin embargo, su influencia sobre las decisiones políticas parece limitada. Durante una cumbre internacional celebrada en la India, empresas del sector aceptaron vigilar los riesgos de la tecnología sin comprometerse a restringir su desarrollo.

Datos cruciales: 

    1) El contrato disputado entre Anthropic y el Pentágono tiene un valor aproximado de 200 millones de dólares, cifra pequeña frente a la valoración de mercado de la empresa, estimada en 380 mil millones de dólares. Esa diferencia muestra que el conflicto no se explica solo por dinero, sino por control político sobre el desarrollo y uso de la inteligencia artificial en el sector militar.

    2) Evaluaciones de Cybench comparan la capacidad de distintos modelos de inteligencia artificial para resolver retos de ciberseguridad sin orientación humana. Resultados indican un salto importante entre generaciones de sistemas. Modelos recientes como Claude Opus de Anthropic alcanzan alrededor de 90%–100% de eficacia, mientras herramientas anteriores como GPT-4o, Gemini o Grok se mantienen aproximadamente entre 10% y 40%. Diferencia refleja una mejora acelerada en la habilidad de estos modelos para analizar fallos y abordar problemas de seguridad informática.

Nexo con el tema que estudiamos: 

    La expansión de la inteligencia artificial coloca a las empresas tecnológicas transnacionales en una posición cada vez más influyente dentro de la gobernanza mundial. Corporaciones que desarrollan estas tecnologías operan entre la economía, la seguridad y la política internacional, lo que difumina las fronteras del capital y acerca la actividad empresarial a dinámicas propias del poder estratégico.

Image icon Gráfica de las IA.png [7]

Source URL (modified on 19 Abril 2026 - 10:47pm):https://let.iiec.unam.mx/node/5790

Links
[1] https://www.economist.com/briefing/2026/03/05/an-ai-disaster-is-getting-ever-closer [2] https://let.iiec.unam.mx/taxonomy/term/14 [3] https://let.iiec.unam.mx/taxonomy/term/16 [4] https://let.iiec.unam.mx/taxonomy/term/18 [5] https://let.iiec.unam.mx/descriptores-let/relaci%C3%B3n-econom%C3%ADa-y-guerra [6] https://let.iiec.unam.mx/taxonomy/term/20 [7] https://let.iiec.unam.mx/sites/let.iiec.unam.mx/files/Gra%CC%81fica%20de%20las%20IA.png