War on woke. Donald Trump is waging war on woke AI
The Economist [2025], "War on woke. Donald Trump is waging war on woke AI", The Economist, 30 de agosto, https://www.economist.com/international/2025/08/28/donald-trump-is-wagin...
En julio de 2025, el presidente estadounidense Donald Trump firmó una serie de órdenes ejecutivas para frenar lo que llamó la “locura marxista woke” en la inteligencia artificial (IA), alegando que los modelos de IA estaban adoctrinando a los usuarios con propaganda izquierdista. La medida surgió tras polémicas como la de Google, cuyo generador de imágenes mostró papas y vikingos con piel negra, lo que desató críticas entre sectores conservadores. Aunque la empresa se disculpó, el incidente reforzó entre los seguidores de Trump la idea de que los modelos de lenguaje (LLM, por su sigla en inglés) estaban sesgados hacia la ideología progresista.
El debate sobre los sesgos ideológicos en la IA no se limita a Estados Unidos. Si bien las acusaciones de la derecha americana pueden sonar conspirativas —especialmente considerando que el chatbot Grok de Elon Musk llegó a mostrar simpatía por Hitler tras flexibilizar filtros de “libertad de expresión”—, los estudios sí confirman que muchos modelos tienden a reflejar las ideologías predominantes en su contexto cultural y político. Así, los modelos estadounidenses suelen inclinarse hacia la izquierda, mientras que los chinos y rusos reflejan las visiones de sus respectivos sistemas.
A nivel global, los gobiernos expresan preocupaciones diversas sobre los prejuicios en la IA. En la Unión Europea, el foco está en la discriminación de género y raza; en Japón y el Sudeste Asiático, en la falta de acceso equitativo en idiomas locales; y en muchos países, en el dominio de normas culturales occidentales. Sin embargo, entre los académicos, el sesgo ideológico y político sigue siendo el más estudiado.
El investigador David Rozado, del Otago Polytechnic en Nueva Zelanda, analizó el lenguaje que utilizan los LLM al proponer políticas públicas y lo comparó con el de legisladores republicanos y demócratas. Su estudio mostró que los modelos tienden a usar un lenguaje más cercano al de los demócratas, salvo un experimento diseñado expresamente para sesgarse a la derecha (Right-wing GPT).
Otro estudio, de Dartmouth College y la Universidad de Stanford, pidió a varios modelos responder preguntas sobre políticas estadounidenses, como si el gobierno debería aumentar los impuestos a los ricos. Los participantes evaluaron las respuestas y concluyeron que la mayoría de los modelos eran percibidos como de izquierda, incluso por los propios votantes demócratas.
Un análisis más global, dirigido por Maarten Buyl y Tijl De Bie de la Universidad de Gante, comparó modelos de distintas regiones y lenguas. Encontró que, en general, los LLMs reflejan las ideologías de sus creadores: los modelos rusos son más favorables hacia figuras críticas de la Unión Europea, mientras que los modelos en chino son negativos hacia políticos de Hong Kong y Taiwán que cuestionan a Pekín.
En conjunto, las investigaciones muestran que la IA no es neutral, sino que reproduce los valores y sesgos culturales, políticos y sociales de quienes la desarrollan. Este fenómeno, aunque inevitable hasta cierto punto, plantea desafíos globales sobre cómo equilibrar la libertad tecnológica con la imparcialidad ideológica en los sistemas de inteligencia artificial.
Más que fichas
Los LLM pueden influir en la opinión y el comportamiento de las personas. Un experimento dirigido por Jill Fisher, de la Universidad de Washington, mostró que tanto republicanos como demócratas modificaron sus decisiones políticas tras interactuar con modelos de IA ideológicamente inclinados.
Esto demuestra que los sesgos en la IA pueden afectar la toma de decisiones reales, razón por la cual los gobiernos de todo el mundo han comenzado a regular el contenido ideológico de estas tecnologías. En China, se exige que la IA refleje los valores socialistas; en Unión Europea, la atención se centra en la discriminación y la equidad; mientras que en Estados Unidos, la administración de Donald Trump** busca imponer la “neutralidad ideológica” en los modelos que contrata el gobierno, aunque críticos temen que esto sirva para promover la ideología de Make America Great Again (MAGA) bajo el disfraz de “búsqueda de la verdad”.
Los sesgos ideológicos en los modelos provienen principalmente de los datos de entrenamiento, que suelen estar en inglés y reflejar las posturas más liberales de los medios, redes sociales y publicaciones digitales. Esto hace que los modelos occidentales parezcan inclinados a la izquierda, especialmente en el contexto estadounidense. Además, los etiquetadores humanos que ajustan los modelos mediante el proceso de aprendizaje por refuerzo con retroalimentación humana (RLHF, por su sigla en inglés) suelen ser jóvenes, lo que puede influir en sus juicios. Finalmente, las instrucciones del sistema impuestas por las empresas definen los límites éticos y el tono de las respuestas, lo que ha llevado a algunos críticos a acusar a Silicon Valley de incorporar valores progresistas de forma intencional.
Sin embargo, el problema es mucho más complejo de lo que sugieren las críticas políticas. Los LLM funcionan como cajas negras, lo que dificulta comprender con precisión por qué generan ciertas respuestas. Los investigadores aún luchan por mejorar su interpretabilidad y enfrentan dilemas filosóficos y éticos sin soluciones claras. Por ejemplo, en temas políticos divididos, los desarrolladores buscan promover una postura equilibrada, pero en cuestiones como el asesinato político o la esclavitud, no hay neutralidad posible. Estas decisiones sobre dónde trazar la línea entre objetividad y moralidad hacen evidente que la neutralidad total en la inteligencia artificial es, en la práctica, casi imposible.
Esos PCs son demasiado correctos
Ante la presión política, las empresas de IA están ajustando sus modelos para incluir voces conservadoras y someterlos a pruebas de sesgo más estrictas. No obstante, la comunidad académica advierte que la verdadera neutralidad es inalcanzable: no existe consenso universal sobre qué significa ser imparcial y, en contextos políticos polarizados, cualquier postura puede interpretarse como ideológica. Algunos investigadores sugieren que los modelos deberían reconocer abiertamente sus inclinaciones, tal como hacen los medios tradicionales, en lugar de disfrazar la imparcialidad. En este sentido, aunque Trump rechace la palabra “diversidad” en otros ámbitos, podría ser precisamente la diversidad de enfoques en la IA lo que asegure un ecosistema más equilibrado y transparente.
1- La gráfica muestra la frecuencia de términos partidistas en seis modelos de lenguaje. Cinco de ellos (Gemini, Llama, GPT-4o, Grok, Claude) se inclinan hacia un sesgo demócrata, mientras que solo Right-wing GPT refleja un sesgo conservador.

2- La gráfica analiza 21 modelos de IA en distintos temas. La mayoría presenta sesgo demócrata en corrección política, programas DEI, acción afirmativa y derechos trans; mientras que en libertad de expresión, impuestos a los ricos y vales escolares se observa mayor neutralidad o incluso inclinación republicana.

La inteligencia artificial no solo es una innovación tecnológica, sino también un terreno de disputa ideológica y política. La ofensiva de Trump contra la “IA woke” revela cómo los sesgos en los modelos se interpretan como una amenaza cultural y electoral, y cómo los gobiernos buscan regular el desarrollo tecnológico según sus valores. La dificultad para definir y garantizar la neutralidad subraya que la IA refleja estructuras sociales y políticas más amplias: los datos, las culturas y los actores que los producen. Desde esta perspectiva, el caso permite analizar las tensiones entre innovación, regulación y hegemonía cultural, así como la dimensión política que adquiere el debate sobre imparcialidad tecnológica en el capitalismo contemporáneo.

