Mensaje de error

Warning: Undefined array key 1 en theme_print_url_list() (línea 357 de /usr/share/drupal7/modules/print/print.pages.inc).

The model of catastrophe

Cita: 

Stainforth, David [2025], "The model of catastrophe", Aeon, 11 de noviembre, https://aeon.co/essays/todays-complex-climate-models-arent-equivalent-to...

Fuente: 
Otra
Fecha de publicación: 
Martes, Noviembre 11, 2025
Tema: 
Predicción del cambio climático
Idea principal: 

    David Stainforth es investigador profesor en el Grantham Research Institute on Climate Change and the Environment de la London School of Economics and Political Science. Es autor de Predicting Our Climate Future: What We Know, What We Don’t Know, and What We Can’t Know (Predicción de nuestro futuro climático: Lo que sabemos, lo que no sabemos y lo que no podemos saber) (2023).


    Los modelos climáticos actuales son deficientes. No incluyen fenómenos físicos que sabemos son importantes e influyen en la dinámica y el cambio climáticos. Esta información faltante toma mayor relevancia cuando asumimos que las estrategias y medidas que la humanidad toma respecto a mitigar los efectos del clima, se basan precisamente en conocimiento derivado de estos modelos. Es decir, estamos tomando decisiones con información deficiente o errónea. Y la información errónea se presenta sobre todo en modelos de escala regional y local.

    Hoy en día, gran parte de la información referente a los sistemas climáticos es obtenida mediante los llamados Modelos del Sistema Terrestre (ESM, por su sigla en inglés). Estos modelos son omnipresentes dentro de la ciencia del cambio climático. Debido a que el cambio climático es de carácter antropogénico, la información adecuada para realizar predicciones climáticas no se encuentra al mirar atrás (antecedentes, estadísticas, trayectorias, etc.), sino al bosquejar en los fenómenos físicos.

    En ese sentido, nuestra predicción climática se basa en nuestro conocimiento sobre los procesos físicos subyacentes (y no tanto en la historia). Y debido a que estos procesos físicos son numerosos (desde el movimiento del calor hasta la interacción de océanos con la atmosfera), resulta necesario el uso de modelos informáticos. ¿El problema? Los modelos no equivalen a la realidad.

    Una posible solución sería hacer modelos más complejos y detallados. Sin embargo, esto apenas se comienza a estudiar y algunos científicos afirman que nunca habrá un modelo eficiente para realizar predicciones climáticas locales multidecenales confiables. En este sentido, se propone cambiar la forma en que se utilizan los ESM: aceptar la incertidumbre como un componente clave del conocimiento y, a partir de ahí, buscar predicciones más robustas que precisas.

    ¿Por qué hay un problema detrás del funcionamiento de los ESM? Para ello, primero habrá que comprender cómo es que estos modelos funcionan. De ahí se podrá concluir si, aunque sean erróneos, son útiles para el fin que buscan.

    Los ESM dividen atmosfera y océanos en cuadriculas de un aproximado de 20 y 100 kilómetros de longitud. En cada cuadricula realizan un conjunto de ecuaciones de física clásica, relacionadas con el comportamiento de fluidos como aire y agua. Esto se conoce como “núcleo dinámico”.

    Hasta ahí todo bien. Hay que reconocer la importancia de estos modelos. Pues, según palabras de George Box, pueden estar equivocados, pero sin duda son útiles para muchas áreas de investigación. Los ESM representan desde la dinámica atmosférica hasta las circulaciones oceánicas y el hielo marino.

    Sin embargo, el núcleo dinámico no es suficiente para simular el sistema climático del planeta. Hay fenómenos climáticos cuyo funcionamiento se desconoce en gran medida, como para representarlos por medio de matemáticas robustas y bien probadas. Por otro lado, hay fenómenos que ocurren a una escala mucho más pequeña que una cuadricula, pero aún así tienen gran impacto en el comportamiento del clima. Para solucionar estos problemas, en los modelos se utilizan “esquemas de parametrización”. Estos no son representaciones físicas de lo que sucede, sino caracterizaciones estadísticas de cómo cada proceso interactúa con el resto del modelo.

    Esta diferencia entre el “núcleo dinámico” y las parametrizaciones deriva en un debate álgido dentro de la ciencia del cambio climático y lo que esta puede revelarnos. Para que un ESM sea un buen motor de predicción climática local multidecenal debe incluir en su totalidad y de manera realista todos aquellos procesos que creemos importantes dentro del período y espacio de análisis. Sin embargo, en escalas multidecenales “todo puede influir en todo”. La pérdida de hielo del Ártico puede influir en el monzón de verano indio. Las precipitaciones del Atlántico Norte pueden influir en la temperatura de África Central.

    Aunado a lo anterior, muchos modelos no se ajustan a la realidad y distan demasiado de ella, quizá por falta de representación de procesos o a causa de la parametrización que no refleja el comportamiento subyacente de los fenómenos. En todo caso, se hacen pruebas para “predecir” lo que ocurrió en períodos pasados, y los resultados se alejan mucho de lo que en realidad sucedió. De esta manera, los modelos son ineficientes para realizar proyecciones a escala local y regional en un período multidecenal.

    Algunos investigadores se apoyan en aquella información “individual” de los modelos, pero otros tantos acusan su incapacidad para predecir el futuro climático. En el caso particular del futuro climático hay dos bandos. Los primeros opinan que los modelos deben ser mejorados. El segundo grupo argumenta que, debido a que desconocemos cuánto y en dónde debemos mejorarlos, lo mejor es aprovechar lo que ya tenemos.

    El primer grupo avanza a pasos acelerados. En una cumbre reciente se propuso aumentar la escala de las cuadriculas de los modelos a 1 kilometro por lado (dato crucial 1). De esta manera se aumentaría el detalle y la resolución de los modelos. Pero no solo eso. El avance más importante radicaría en la posibilidad de “transformar” parametrizaciones en representaciones del núcleo dinámico basado en física. Esto volvería a los modelos más relevantes, pues estarían basados en mayor información científica.

    Las mejoras son innegables: mayor detalle y eliminación de parametrizaciones son las más importantes. Sin embargo, ¿esto serviría para realizar pronósticos climáticos fiables? La respuesta sostenida es no. La respuesta se fundamenta en el hecho de que faltarán procesos de mucha importancia como los relacionados con química atmosférica y biogeoquímica oceánica. Además, aún se utilizarán parametrizaciones deficientemente ajustadas. En resumen, hay conocimiento que no se tiene para alimentar los modelos, por más resolución que tengan.

    La diferencia entre predicciones climáticas multidecenales y pronósticos meteorológicos radica en dos aspectos centrales. En primer lugar, hay procesos que no “alcanzan” a influir en el corto plazo y por ello se omiten en pronósticos meteorológicos. En segundo lugar, las predicciones meteorológicas se pueden medir con los resultados observados (otra ventaja atribuida a la escala temporal). Para ambos casos, las predicciones climáticas multidecenales se encuentran del lado contrario.

    Por su parte, el segundo grupo (aquel que sostiene que hay que buscar alternativas con lo que se tiene de los modelos) propone dos alternativas. Cabe destacar que este grupo, se preocupa más por lo que podría suceder que por lo que sucederá.

    El primer camino propuesto es un enfoque de “argumento”. Este se basa en la comprensión específica de una parte del sistema climático (patrones meteorológicos, causas de ciclones tropicales, etc.) y, en consecuencia, describir cómo podría cambiar en un futuro. Esto traería la necesidad de incorporar expertos de diferentes partes del sistema.

    El problema del enfoque anterior radica en que lo importante de la narrativa climática es que esta siempre viene en paquete. Es decir, el enfoque de argumento puede servir para tratar casos o ubicaciones específicas y para considerar una diversidad de posibilidades antes de tomar una decisión con respecto al clima. Pero no puedo predecir escenarios climáticos en su conjunto. Además, se encontró que existe una barrera de investigación debido al uso extendido de modelos dentro de la ciencia del cambio climático.

    De esta manera, los enfoques argumentales no son una solución sencilla. Requieren de un diseño bien cuidado y de la consulta de un gran número de expertos acreditados. En todo caso, resulta más viable porque se basa en lo que sí entendemos.

    La otra alternativa del grupo se basa en un cambio de uso de los modelos actuales. Se propone hacer que estos respondan de manera diferente al aumento de gases de efecto invernadero atmosféricos. De esta manera, se puede tener un conjunto de modelos y posibilidades a futuro. Así, se puede comparar qué tan diferente podría ser cada uno a la escala que nos interesa. Más que resultados individuales, se busca una diversidad de respuestas para ser tratadas en su conjunto.

    Por separado no resultan predictores confiables. Pero dada la información valiosa de cada modelo, podemos modificar sus supuestos a fin de crear versiones alternativas del mismo, pero que sean tan creíbles como el original. Estas nuevas versiones podrían mostrarnos diferentes caminos a tomar para el desarrollo del cambio climático en un futuro.

    Lo anterior no es una especulación. En los últimos 25 años se realizaron diversos experimentos y proyectos basados en tal enfoque. Estos proyectos se conocen como “conjuntos de física perturbada”. El más importante de ellos es CPDN, de la Universidad de Oxford. Se basa en la ejecución de cientos de miles de modelos en computadoras mientras estas están inactivas (dato crucial 2).

    Lo importante de lo anterior no es tanto el resultado en concreto, pues aún es bastante incierto, sino los mensajes claros que estos modelos pueden generar a través de una gran cantidad de resultados. Es decir, el potencial de posibilidades. Hasta ahora no se realizaron más experimentos que analicen explícitamente la gama de comportamientos climáticos futuros que deberían considerarse a escala local. Esto sería muy caro. Pero sí se reconoce que tales recursos, si estuvieran disponibles, estarían mejor destinados que utilizarlos en mejorar la resolución de modelos.

    Con este escenario enfrente, ahora la pregunta no es “¿Cuándo un modelo es lo suficientemente realista para predecir el clima futuro?”. Ahora sería: “¿Cuándo es un modelo demasiado irreal para ser considerado informativo sobre el clima futuro? Esto debe asimilarse tanto en ciencia del cambio climático como en ciencias sociales.

    Dedicar todo nuestro empeño en mejorar la resolución de modelos informáticos no solo es inviable por lo costoso. También lo es por el hecho de que retroalimenta una excesiva confianza en los mismos. Y como cada vez más decisiones climáticas son tomadas en función de dichos modelos, podríamos estar estimulando una mala toma de decisiones cada día más extendida. Además, es importante señalar que este enfoque ignora el manejo (o intento) de incertidumbres.

    Por su parte, los conjuntos de física perturbada y los enfoques argumentales consideran nuestras incertidumbres. A la hora de realizar una inversión no solo se considera la opción que creemos más probable: también se analiza todo un conjunto de resultados que creemos posibles. Lo mismo hay que hacer con nuestro futuro climático. El conocimiento de incertidumbre también forma parte de lo que sabemos acerca del cambio climático. En este sentido, científicos deben tratar de comprender, cuantificar y caracterizar la incertidumbre. Y dejar de esperar que modelos climáticos otorguen predicciones fiables, algo que quizá jamás ocurra.

Datos cruciales: 

    1) En la cumbre, realizada en Berlín en 2023, se hizo un llamado a una nueva iniciativa de modelación climática, llamada Motores de Virtualización de la Tierra (EVE, por su sigla en inglés). Esta costaría cerca de 15 mil millones de dólares.

    2) 6 mil 203 versiones de un modelo generadas por este proyecto superaron las pruebas de consistencia y mostraron un calentamiento global, así como un aumento de las precipitaciones en el norte de Europa y una disminución de las mismas en la cuenca mediterránea. Sin embargo, este experimento únicamente trató de probar el potencial de respuestas de los modelos.

Nexo con el tema que estudiamos: 

    El tema tratado es un ejemplo más (como ocurre con la geoigeniería ambiental) de la pretensión de científicos por solucionar problemas subyacentes al capitalismo únicamente desde su esfera de estudio. Los modelos informáticos de clima brindan información valiosa sobre el funcionamiento e interacción de fenómenos físicos y su impacto en el clima. Pero son incapaces de brindar información fiable a la hora de querer dar solución al problema del cambio climático.

    Y es que, aunque se siga con el mejoramiento de estos modelos, el cambio climático también se volverá más disruptivo. Habrá factores nuevos que tendrán que ser considerados y dichos modelos tendrán que recalibrarse de nuevo a fin de tratar de equipararse con la realidad. Pero si ahora no son capaces, ¿qué nos hace creer que cuando el escenario llegue a un punto de crisis climática "total", alguien pensará todavía en el uso de modelos y su mejoramiento? Porque si un modelo no basta para evitarla, menos para resarcirla. A lo que más aspiran estos modelos, es a ser paliativos temporales. Y eso es ser todavía muy optimista.