Data Centers Are a Distraction. The Real Fight Is Elsewhere

Cita: 

Wallace-Wells, David [2026], "Data Centers Are a Distraction. The Real Fight Is Elsewhere", The New York Times, New York, 4 de marzo, https://www.nytimes.com/2026/03/04/opinion/data-centers-ai-regulation.html

Fuente: 
Otra
Fecha de publicación: 
Miércoles, Marzo 4, 2026
Tema: 
Inteligencia artificial y límites del Estado en la gobernanza tecnológica
Idea principal: 

    David Wallace-Wells. Es un periodista neoyorquino graduado en historia por la Universidad de Brown. Es editor adjunto de la revista New York Magazine, estuvo en el mismo cargo en The Paris Review, colaboró con Wired, Harper's y The Guardian.


    Un reporte de New Scientist reveló que modelos avanzados de inteligencia artificial recomendaron ataques nucleares durante ejercicios de simulación militar. A partir de ese episodio surgió un conflicto entre el Departamento de Defensa de Estados Unidos y Anthropic, empresa creadora del sistema Claude, que exigió limitar el uso de sus herramientas en vigilancia doméstica y en armamento completamente autónomo. La disputa expuso una tensión creciente entre empresas tecnológicas que desarrollan inteligencia artificial y autoridades militares interesadas en incorporarla a operaciones estratégicas.

    Poco después el Pentágono realizó un ataque contra Irán con apoyo de sistemas de inteligencia artificial, incluso después de que Donald Trump prohibiera su uso pocas horas antes. De manera paralela, autoridades de defensa negociaron un nuevo contrato con OpenAI, cuyas herramientas habían sido evaluadas como menos eficaces que las de Anthropic pero resultaban más flexibles frente a las condiciones del aparato militar.

    Dean Ball, ex asesor de política tecnológica de la Casa Blanca, describió el episodio como el primer gran debate público sobre el lugar donde debe concentrarse el control de la inteligencia artificial de frontera. Su planteamiento refleja una disputa política más amplia sobre quién debe dirigir el desarrollo de esta tecnología y qué futuros tecnológicos resultan aceptables.

    El debate ocurre en un clima de desconfianza. Parte de Silicon Valley duda de la capacidad del gobierno para regular una tecnología que evoluciona con rapidez, mientras amplios sectores sociales cuestionan el poder de las grandes empresas tecnológicas. El resultado es un escenario en el que la sociedad teme las consecuencias de la inteligencia artificial pero tampoco confía plenamente en instituciones capaces de administrarla.

    El Congreso de Estados Unidos reaccionó ante la aparición de ChatGPT organizando audiencias públicas para discutir si una tecnología con capacidad de transformar la economía y la vida social requería límites regulatorios. Investigadores y directivos del sector tecnológico participaron en reuniones con legisladores para analizar posibles mecanismos de supervisión.

    En ese contexto, Chuck Schumer, senador del Partido Demócrata de Estados Unidos, sostuvo que existía acuerdo general sobre la necesidad de que el gobierno desempeñara algún papel en la regulación de la inteligencia artificial. A pesar de ese reconocimiento inicial, la discusión legislativa perdió impulso y terminó generando pocos resultados concretos.

    Al mismo tiempo, el crecimiento del sector tecnológico continuó avanzando con rapidez. Las empresas dedicadas al desarrollo de inteligencia artificial ampliaron su tamaño e influencia dentro de la economía estadounidense, lo que reforzó la percepción de que se habían vuelto demasiado importantes para enfrentar restricciones directas por parte del Estado.

    Esta situación coincidió con un cambio en la orientación política que dejó atrás un discurso centrado en la seguridad tecnológica para favorecer una estrategia más cercana a acelerar el desarrollo de la industria. La percepción social también empezó a transformarse. El entusiasmo inicial que acompañó la expansión de la inteligencia artificial comenzó a dar paso a una sensación de inquietud entre distintos sectores del electorado.

    En un contexto marcado por tensiones relacionadas con la globalización y con el poder creciente de élites económicas, esta tecnología empezó a interpretarse como símbolo de una pérdida de control sobre procesos que afectan la organización de la sociedad y el futuro de las comunidades.

    Una parte de esa preocupación encontró un objetivo concreto en la infraestructura necesaria para sostener el funcionamiento de la inteligencia artificial. La expansión de centros de datos comenzó a provocar conflictos en diversas regiones del país. Jael Holzman, periodista estadounidense especializada en política climática y energía, describió en el medio climático Heatmap esta tendencia como una reacción política que se extiende por múltiples comunidades de Estados Unidos.

    En el plano institucional también aparecieron respuestas. Bernie Sanders, senador independiente de Estados Unidos por Vermont, propuso suspender temporalmente la construcción de nuevos centros de datos mientras gobiernos estatales y autoridades municipales comenzaron a evaluar medidas similares. Estas disputas locales pueden generar beneficios ambientales para algunas comunidades, aunque también reflejan un debate más profundo sobre quién controla la infraestructura que sostiene la inteligencia artificial y quién decide el rumbo tecnológico de la sociedad.

    En varias comunidades de Estados Unidos, la oposición a los centros de datos comienza a consolidarse como una victoria política local para quienes buscan limitar la expansión de infraestructura tecnológica. Sin embargo, esa forma de resistencia apenas responde a inquietudes más amplias sobre el impacto de la inteligencia artificial. Algunos discursos públicos comparan esta tecnología con transformaciones históricas profundas, como la revolución industrial o la aparición de la imprenta, procesos que alteraron de manera prolongada la organización social antes de producir mejoras en las condiciones de vida.

    Frente a esas analogías históricas, Satya Nadella, director ejecutivo de Microsoft, sostiene que la inteligencia artificial podría desencadenar cambios económicos y culturales de gran escala en un periodo relativamente breve. Aun así, reducir la construcción de centros de datos difícilmente impediría otras consecuencias asociadas con esta tecnología, como la difusión de información errónea en internet, alteraciones en el mercado laboral, cambios en la producción cultural o transformaciones en prácticas educativas y sociales.

    Otro elemento central del debate se relaciona con la concentración de poder tecnológico. Parte de la preocupación pública gira en torno a la posibilidad de que un pequeño grupo de empresarios tecnológicos diseñe el rumbo del futuro digital. Chris Murphy, senador demócrata de Estados Unidos por Connecticut, advierte que el impacto cultural y económico de la inteligencia artificial puede convertirse en uno de los principales temas políticos en los próximos años.

    En ese contexto, algunos legisladores reconocen la falta de preparación institucional frente a esta tecnología. Bernie Sanders, senador independiente de Estados Unidos por Vermont, señala que la sociedad todavía no comprende plenamente sus consecuencias. Asimismo, surgieron intentos de impulsar debates regulatorios. Brian Schatz, senador demócrata de Estados Unidos por Hawái, promueve propuestas relacionadas con los riesgos laborales asociados con la inteligencia artificial, mientras Ro Khanna, representante demócrata de Estados Unidos por California, plantea principios para orientar su gobernanza.

    El ritmo acelerado de desarrollo tecnológico complica cualquier respuesta política. En pocos años, la conversación pública pasó del asombro inicial frente a nuevas herramientas digitales a discusiones dentro del Pentágono sobre el uso de sistemas autónomos en conflictos armados. Ante esa velocidad de cambio, quienes buscan influir en el rumbo de esta tecnología probablemente necesitarán estrategias políticas más amplias que la simple oposición a nuevos centros de datos.

Datos cruciales: 

    1) Durante el ataque contra Irán presuntamente apoyado por inteligencia artificial, uno de los blancos habría sido una escuela primaria donde murieron 175 personas. Ni Israel ni Estados Unidos reconocieron responsabilidad directa por el bombardeo, lo que intensificó críticas sobre el uso de inteligencia artificial en operaciones militares y sobre la opacidad que rodea decisiones estratégicas vinculadas con estas tecnologías.

    2) La percepción pública sobre la construcción de centros de datos cambió de forma significativa en encuestas nacionales. En una medición inicial, 44% de los votantes apoyaba proyectos cercanos a sus comunidades mientras 42% se oponía. Meses después, una nueva encuesta mostró un giro notable: 52% expresó rechazo y solo 28% manifestó apoyo. Como resultado, la aprobación pública de esta infraestructura tecnológica registró una caída de 24 puntos en aproximadamente un año.

    3) Comparaciones históricas permiten dimensionar el posible alcance de la inteligencia artificial. La revolución industrial transformó la organización económica y social durante cerca de 200 años antes de generar mejoras sostenidas en las condiciones de vida. Por su parte, Satya Nadella, director ejecutivo de Microsoft, plantea que transformaciones de escala comparable podrían desarrollarse en aproximadamente 2 décadas. A ello se suma la velocidad reciente del cambio tecnológico: en apenas 3 años el debate público pasó del asombro inicial frente a ChatGPT a discusiones dentro del Pentágono sobre el uso de sistemas autónomos en escenarios de guerra.

Nexo con el tema que estudiamos: 

    Cuando el desarrollo tecnológico avanza más rápido que la capacidad política para regularlo, la cuestión central deja de ser qué puede hacer la tecnología y pasa a ser quién tiene el poder de decidir hasta dónde puede llegar.