Global Catastrophic Risks
Bostrom, Nick y Milan Cirkovic [2008], Global Catastrophic Risks, Oxford, Oxford University Press.
Nick Bostrom es un filósofo sueco que trabaja en la Universidad de Oxford. Es conocido por su trabajo sobre el riesgo existencial, el principio antrópico, la ética de la mejora humana y los riesgos de la superinteligencia.
Milan M. Ćirković, por su parte, es un astrónomo, astrofísico y autor de libros científicos serbio. Se especializa en los campos de la astrobiología, los riesgos catastróficos globales y el futuro de la humanidad, donde incluso ha trabajado con Nick Bostrom.
Introducción
Ambos autores hacen un estudio acerca de los riesgos catastróficos globales que suponen daños graves al bienestar humano a nivel internacional, mencionando qué se entiende por “riesgo” para la humanidad. Esto seguido de una categorización de dichos riesgos, principalmente haciendo hincapié en aquellos que se consideran como “riesgos naturales”, “riesgos de consecuencias no deseadas” y “riesgos de actos hostiles”.
¿Por qué?
Así pues, cuando se habla de “riesgos catastróficos globales” no se hace referencia a una definición precisa de éstos, pero generalmente implican daños graves a la especie humana a escala mundial. Estos peligros pueden ir “desde erupciones volcánicas, infecciones pandémicas, accidentes nucleares, tiranías mundiales, experimentos científicos, cambios climáticos, riesgos cósmicos hasta el colapso económico” (Bostrom, Ćirković; 2008).
Con base en esto, los autores dan fundamento a la utilidad del libro puntualizando que, el tratamiento integral del “riesgo catastrófico global” resulta “coherente” y “ventajoso”, entonces el estudio de este asunto es importante. Pues, a pesar de que los peligros son de varios tipos, estos están enlazados por varios vínculos y puntos en común.
Esta cuestión puede verse por medio de dos ejemplos, el primero sería que para los fenómenos destructivos gran parte del daño se deriva de los efectos del “segundo orden social”, así que los peligros de disrupción social y el colapso tienen relación con los riesgos de acontecimientos tales como: el terrorismo nuclear o enfermedades pandémicas. Un segundo ejemplo serían los eventos como grandes impactos de asteroides, súper erupciones volcánicas y guerras nucleares que “expulsan grandes cantidades de hollín y aerosoles en la atmósfera, con efectos significativos en el clima global”, (Bostrom; Ćirković, 2008). Estas relaciones son uno de los motivos por los que se deben analizar los riesgos múltiples de forma conjunta. Por otra parte, el desarrollo en diferentes momentos de los problemas metodológicos, conceptuales y culturales igualmente es relevante para los autores.
Asimismo, las causas pragmáticas para tomar en cuenta estos riesgos catastróficos globales impulsan su estudio en un solo campo, ya que la importancia que se les da es escasa y su gestión costosa. Así pues, si se estudian estos riesgos de forma individual, dejando de lado el perfil de amenaza al que pertenecen, hay una mayor atención en ciertos riesgos por parte de los expertos y el público, y a su vez pueden descuidarse otros riesgos de mayor gravedad y más resistentes a la mitigación. De esta forma, es posible que no se tome en cuenta ninguna política de precaución eficaz para disminuir el peligro particular que se visualiza. Esto trae como resultado nuevos riesgos y el incremento en el nivel general del riesgo. Razón por la cual tener una perspectiva amplia es esencial para delimitar prioridades.
Con base en esto, el objetivo del presente libro es considerar el abanico de riesgos catastróficos globales que afronta la humanidad en la actualidad o que afrontará en un futuro, apto para lectores que cuenten con una educación interdisciplinaria. A este respecto, Bostrom y Ćirković pretenden impulsar una mejor investigación, sensibilización y debate político acerca de los riesgos y la gestión de estrategias. De esta forma, según los autores, una comunidad interdisciplinaria de especialistas en riesgos catastróficos ayudará a aumentar las probabilidades de encontrar e implementar respuestas a los desafíos del siglo XXI.
Taxonomía y organización
En ese sentido, resulta importante explorar aquello que se considera riesgo catastrófico y aquello que no, recordando que el daño debe darse de una manera severa a escala global. Cabe destacar que, “una catástrofe que haya provocado 10 000 víctimas mortales o 10 000 millones de dólares en daños económicos no calificarían como catástrofe global”, (Bostrom; Ćirković, 2008). Pero una catástrofe que haya causado “10 millones de muertos o 10 billones de dólares en pérdidas económicas”, (Bostrom; Ćirković, 2008) sí sería vista como una catástrofe global.
Con esto, conviene mencionar que las catástrofes globales han ocurrido varias veces en la historia. Bostrom y Ćirković proporcionan algunos ejemplos de éstas. Entre ellas están: la rebelión militar de An Luhan, la guerra civil de Taiping, la hambruna del Gran Salto Adelante en China, la peste negra en Europa, la pandemia de la gripe española, la Primera y la Segunda Guerras Mundiales, los genocidios nazis, las hambrunas en India, el totalitarismo de Stalin, la muerte de la población nativa americana por culpa de la viruela y otras enfermedades que llevaron los colonizadores europeos, entre otros ejemplos.
De modo que, se puede caracterizar la gravedad de un peligro a través de tres variables distintas. En primer lugar, se encuentra “su alcance”, es decir cuántos individuos y otras especies se verían perjudicadas por él. En segundo lugar, “su intensidad”, que se refiere a la gravedad del riesgo. En tercer lugar, su probabilidad, es decir, qué tan probable es que la calamidad pase, tomando en cuenta la información disponible.
Asimismo, los autores desglosan cada categoría. En este marco, el alcance de un peligro podría ser personal, que involucre a una persona, o local y global, que perjudique a una gran parte de la población humana, o transgeneracional, que pase de generación en generación. En cuanto a la intensidad de un riesgo, éste se puede categorizar como imperceptible, soportable, es decir, que provocaría un daño significativo, pero no destructivo de la calidad de vida, o terminal. En este último tipo de intensidad, el desastre provocaría la muerte y disminuiría permanente y drásticamente la calidad de vida. En dicha clasificación los riesgos catastróficos globales ocuparían los cuatro tipos de riesgos, global, transgeneracional, de intensidad soportable o terminal.
Como se plantea en la figura 1, los ejes pueden expandirse para comprender riesgos conceptualmente posibles que se vuelven cada vez más externos. Hablando de los riesgos transgeneracionales, éstos pueden contener una subcategoría de peligros tan nocivos que no solo perjudicarían a las generaciones futuras humanas, sino al futuro “cono de luz del universo”, (representación del espacio-tiempo, en la teoría de la relatividad espacial) que ayuda a producir seres inteligentes y conscientes de sí mismos. Por otra parte, de acuerdo con varias “teorías de valor” es posible que algunos “estados del ser” resulten ser peores a la muerte. Puede verse un ejemplo de esto con las formas permanentes y extremas de esclavitud o control mental, por lo que sería probable de que el eje x se extendiera hacia la derecha en la tabla, (Figura 1).
Un subconjunto de riesgos catastróficos globales son los "existenciales", que se refieren a aquellos que podrían desencadenar la extinción de la vida inteligente derivada del planeta Tierra o que serían capaces de disminuir la calidad de vida de forma drástica y permanente. Cabe mencionar que, como no es posible recuperarse de un daño dejado por los riesgos existenciales, hay que evitar que suceda un desastre de este estilo, puesto que no dejaría una lección significativa para prevenir futuros riesgos.
El nivel de peligro de una catástrofe existencial depende de los asuntos discutidos en la “teoría del valor”, es decir, debe decidirse cuánto peso se les dará a las generaciones futuras. Al mismo tiempo, al valorar los peligros existenciales supone dificultades metodológicas distintivas relacionadas por los impactos de la selección de observación y la urgencia de prevenir un “sesgo antrópico” (Bostrom se refiere a este último concepto como la incertidumbre de no conocer nuestro lugar en el universo).
En este punto, es importante establecer una base más amplia del pensamiento sistemático sobre los grandes riesgos en general. Por consiguiente, debe considerarse el desarrollo de estos riesgos en el ámbito temporal. Esta dimensión es necesaria para tener el mapa completo del origen de los retos que se enfrentan en la actualidad. Por ejemplo, para saber cómo analizar los riesgos del terrorismo nuclear, es relevante tomar en cuenta tanto la probabilidad de que ocurra un error, como de la forma en que los riesgos transformarán al futuro. Así pues, el cambio climático originado por las emisiones de gases de efecto invernadero, por sí solo, no es considerado como un riesgo mundialmente catastrófico en la actualidad o en un futuro inmediato, el problema es lo que los efectos de esas emisiones podrían causar a largo plazo. Asimismo, la anticipación de riesgos ante un posible desarrollo tecnológico resulta importante.
“En algunos casos, igualmente, puede ser importante estudiar escenarios que son físicamente imposibles. El riesgo hipotético del experimento de colisionador de partículas es un ejemplo de ello”, (Bostrom; Ćirković, 2008). Es probable que dichos experimentos no puedan provocar desastres globales. Si se ve al riesgo de una forma objetiva, éste podría equivaler a cero. Sin embargo, no hay certeza de que el riesgo sea objetivo. Entonces, si existe esta duda el riesgo sería considerado como subjetivo. Como la suposición de que tales riesgos sean objetivos es relevante para el análisis, los autores la agregaron a la definición de riesgos catastróficos globales.
No obstante, esta distinción entre riesgo objetivo y subjetivo realmente no resulta fácil de diferenciar. Un ejemplo evidente de riesgo objetivo sería la posibilidad de que un asteroide chocara con la Tierra. Por el contrario, imaginando que ningún asteroide se dirija a una colisión con el planeta Tierra en un intervalo lo suficientemente largo de tiempo, podría mencionarse que no existe la posibilidad de que este riesgo objetivo pueda provocar una catástrofe. Sin embargo, no es posible tener conocimiento de esto hasta que no se dibujen las trayectorias en las que los asteroides que amenazan la Tierra puedan causar daños. “Mientras tanto, se debe reconocer el riesgo de los asteroides, aunque el riesgo sea puramente subjetivo, simplemente reflejando un estado de ignorancia”, (Bostrom; Ćirković, 2008). En ese sentido, los autores ponen como ejemplo a una cueva vacía. Ésta puede ser de manera subjetiva insegura, si se asume que un león vive en ella y lo racional en este caso sería evadirla, si se piensa que el daño esperado al entrar a ella será mayor que la ganancia.
Volviendo al caso del asteroide, se puede medir el riesgo gracias a cierta información. Se puede calcular la probabilidad de un efecto catastrófico por medio de las estadísticas de impactos pasados y de modelos de observaciones del grupo de asteroides inofensivos. Por consiguiente, el riesgo particular requiere de una investigación rigurosa, y las estimaciones de probabilidad que se obtienen dependen de la evidencia. Aunque para ciertos peligros no se encuentran disponibles los datos para hacer este trabajo riguroso. Asimismo, tampoco están disponibles modelos científicos para poder hacer estimaciones de probabilidad.
Por ejemplo, no hay manera científica rigurosa de establecer una probabilidad de peligro cuando se habla de un ataque terrorista que emplea una guerra biológica y que vaya a ocurrir en los siguientes 10 años. Tampoco hay forma de asegurar que los riesgos de un régimen totalitario global que aparezca antes del final del siglo XXI sean de cierta magnitud. Con esto se dice que “los análisis de tales riesgos dependerán en gran medida de argumentos de plausibilidad, analogías y juicio subjetivo”, (Bostrom; Ćirković, 2008).
Si bien es preferible que los métodos más rigurosos estén disponibles y sean aplicables, la ciencia sería aplicada en exceso si la atención únicamente fuera enfocada a esos peligros aptos para enfoques rigurosos. Esto provocaría que muchos riesgos que afectan a la humanidad se dejaran de lado. Igualmente, se establecería una dicotomía falsa entre dos clases de peligros, los científicos y los especulativos, donde en realidad debería haber una continuidad en la manipulación analítica.
Así pues, los autores proponen en el texto diversos asuntos que vislumbran un “sesgo” hacia peligros pequeños que han sido el objeto de estudio más científico, así como un análisis de peligros potencialmente grandes pero especulativos. En ciertos casos, los autores consideran importante un capítulo de riesgos y procedimientos que se utilicen para hacer una conclusión pertinente que les sea útil a los futuros trabajos que se realicen sobre riesgos. Con base en esto, los autores dividen su texto en cuatro partes: la primera hace mención a los antecedentes, la segunda habla sobre los riesgos que provienen de la naturaleza, la tercera se refiere a los riesgos de consecuencias no deseadas y cuarta habla de los riesgos de actos hostiles.
A este respecto, tomar el caso de un terremoto, a simple vista se entendería como un “evento natural”, pues está dirigido por el movimiento de placas tectónicas que no puede ser controlado por los seres humanos. Por el contrario, el peligro que supone un terremoto también depende de una construcción humana. Esto es porque los lugares donde se construyen edificios y la forma en que se construyen con firmeza contribuye a la magnitud de los terremotos. En el supuesto de que todos habitaran en tiendas de campaña o en edificios resistentes a terremotos y que instalaran sus ciudades lejos de las fallas y las costas del mar, sería posible que los terremotos tuvieran menor magnitud y provocaran pocos daños. Es decir, el riesgo del terremoto se da entre el Hombre y la Naturaleza.
Igualmente, se podría poner el ejemplo del peligro que causan las armas nucleares, pues no están alejadas de las fuerzas de la naturaleza. En el supuesto de que una bomba nuclear explote, el daño que provocaría estaría influenciado por el clima. Los elementos que dependen de él como el viento, la temperatura y la precipitación perjudicarían al comportamiento de la lluvia radiactiva y la probabilidad de que se desencadene una “tormenta de fuego”. Estos factores son los que marcan una diferencia en el número de muertes provocadas por la explosión.
Además, otro elemento importante es la manera de definir al riesgo para saber en qué lapso de tiempo pasaría de una clase a otra. Igualmente, el riesgo del hambre puede haber sido ocasionado en primera instancia por la naturaleza, mencionando sus causantes correspondientes, es decir; el aire y las fluctuaciones en la población de las presas locales. Pero en la actualidad, las hambrunas suelen ser resultado de las fallas en el mercado, las guerras y el colapso social. Así pues, el origen del riesgo es visto como una consecuencia no deseada o un acto hostil.
Parte I: Trasfondo
El propósito de esta parte del libro es dar un contexto general y una orientación metodológica para el pensamiento de forma sistemática y crítica con respecto a los riesgos catastróficos globales. En este punto, el primer capítulo que los autores examinan es el del antropólogo estadounidense Fred Adams en el que se plantea un escenario a largo plazo del planeta Tierra, la galaxia y el universo en general.
Se cree que, “en 3 500 millones de años, la creciente luminosidad del sol habrá esterilizado la biosfera de la Tierra, pero está previsto que el fin de la vida compleja de la Tierra llegue antes”, (Bostrom; Ćirković, 2008) (Dato crucial 1). Éste sería el futuro premeditado de la vida del planeta. En este marco se podría pensar que, si la humanidad y la civilización tecnológica compleja sobreviven, ya se habrá aprendido a colonizar el espacio.
Si un evento devastador desapareciera al homo sapiens y a otros organismos en la Tierra, habría una oportunidad de mil millones de años para que otra especie inteligentes evolucione y suplante a los seres humanos (Dato crucial 2). Aunque no se sabe si esta repetición de la evolución ocasionaría algo similar al humano: a una especie sucesora consciente de sí misma.
“Si la vida inteligente se extiende al espacio aprovechando los poderes de la tecnología, su vida útil podría llegar a ser extremadamente larga”, (Bostrom; Ćirković, 2008). No obstante, en algún punto el universo tendrá que terminar (Datos cruciales 3 y 4). Y el futuro a esta escala de tiempo va más allá de la comprensión humana. Posteriormente a la descripción de este destino remoto, se debería tomar en cuenta el pasado distante. Ciertos cataclismos pasados han dejado un antecedente geológico (Dato crucial 5).
Asimismo, cabe destacar el proceso de “extinción masiva del Pérmico-Triásico” (Dato crucial 6).
Cuestiones como caída de asteroides, cometas y erupciones volcánicas masivas, han causado diversas extinciones masivas en el pasado. Otras, como las variaciones en la intensidad de la iluminación solar, en ciertos casos pueden provocar presiones exacerbadas. “Parece que todas las extinciones masivas han sido mediadas por efectos atmosféricos, tales como cambios en la composición de la atmósfera o en la temperatura”, (Bostrom; Ćirković, 2008) (Dato crucial 7). Pero, en realidad no todas las especies se extinguieron por cataclismos (Dato crucial 8), pues algunos de ellos perdieron ante la disputa con otras especies por el mismo nicho.
En el capítulo 3 del presente libro se explican los mecanismos de la transformación evolutiva. Se cree que anteriormente la especie humana habitaba con otra especie de homínido, los neandertales, (Dato crucial 9). Este tipo de especie creaba y utilizaba diversas “herramientas compuestas” (Dato crucial 10). Asimismo, es relevante destacar la existencia de otra especie homínida nombrada Homo floresiensis apodada como “el hobbit” por su estatura. Estos fueron descubiertos en una isla de Indonesia (Dato crucial 11). Con esto puede señalarse en el capítulo que, ya ha tenido lugar la extinción de especies inteligentes en el planeta Tierra.
Sin embargo, James Hughes, por su parte, puntualiza en el capítulo 4 del libro que los desastres finales causan una serie de “tendencias cognitivas” muy peculiares. A esto él lo llama “grupos apocalípticos psico-culturales o utópicos del milenio”, “una dinámica de creencias y comportamientos escatológicos”, (Bostrom; Ćirković, 2008). Y los estudios del milenio dan un impulso pan-cultural a este respecto.
En ese sentido, Hughes muestra cómo pueden estudiarse estos conceptos en diversas formas y con diversos tropos tanto en Europa como en India y China. El autor menciona que podría hacerse un análisis racional y tecnocrático, vislumbrando las probabilidades de un destino sin enfermedades, hambre o muerte, tomando en cuenta que el mundo pueda ser amenazado por guerras, plagas o asteroides, pero muchos de estos estudios probabilísticos vendrán cargados de inclinaciones milenarias, positivas o negativas, fatalistas o mesiánicas.
Aunque, conviene mencionar que las "figuras retóricas escatológicas" responden a las necesidades sociales legítimas e impulsan la movilización de acción necesaria, éstas pueden contribuir a la “desconexión social”. Es por eso que Hughes sostiene que, “se necesita un auto interrogatorio históricamente informado y vigilante para ayudar a mantener el centro en esfuerzos constructivos para abordar desafíos reales”, (Bostrom; Ćirković, 2008), pues es difícil lograr un pensamiento y actuar racionalmente cuando se trata de riesgos catastróficos globales y riesgos existenciales.
Sobre esta línea, el investigador estadounidense, especialista en inteligencia artificial, Eliezer Yudkowsky indica lo siguiente: “Números sustancialmente mayores, como 500 millones de muertes, y especialmente diferentes escenarios como la extinción de toda la especie humana, parecen desencadenar un diferente modo de pensar, entrando en un magisterio separado” (Bostrom; Ćirković, 2008). La perspectiva cambia cuando se sabe que los riesgos existenciales también son provocados por la especie humana, ahí es cuando se llega a pensar que esta especie no merece sobrevivir.
Con respecto a este tema, se han hecho diversas investigaciones por parte de psicólogos y economistas, creando una amplia gama de literatura empírica acerca de "heurísticas comunes" y "sesgos" que pueden verse en la cognición humana. El investigador estadounidense aplica este tipo de literatura en el ámbito de los riesgos a gran escala. Su rastreo incluye ciertos impactos. Entre ellos se destacan “los efectos de disponibilidad, sesgo retrospectivo; cisnes negros, la falacia de conjunción; sesgo de confirmación; anclaje, ajuste y contaminación; la heurística del afecto; abandono del rango; calibración y exceso de confianza y apatía del testigo” (Bostrom; Ćirković, 2008).
Por otro lado, el sesgo antrópico también debería evitarse en esta línea de razonamiento. Éste se diferencia de los "sesgos cognitivos generales" de los que habla Yudosky, ya que los antrópicos son de origen más teórico y se aplican de forma más rigurosa a ciertas clases de deducciones. Este tipo de sesgo surge cuando se evaden los efectos de la “selección de observaciones relevantes”. Tal “efecto de selección” se refiere al análisis de la evidencia que puede hacerse por medio de la indagación de un observador previo. Si no se hace una correcta observación de los impactos, esto puede ocasionar errores en la evaluación probabilística que se haga de ciertas hipótesis importantes.
En el capítulo 6 del libro, Milan Cirkovic estudia las aplicaciones de esta “teoría de la selección de observaciones” que se vinculan con los riegos catastróficos y existenciales, aunque ciertas aplicaciones no parezcan evidentes. Por ejemplo, la deducción de que algunos tipos de desastres existenciales sean muy improbables porque no tienen precedentes. De hecho, es probable que se encuentren algunos sitios que no hayan sido destruidos donde aún habiten especies inteligentes. En la medida en que sea raro o común que el planeta o las especies se destruyan, existe una posibilidad de que el planeta Tierra sí se derrumbe o que la especie humana se extinga, a pesar de que se trate de un hecho no observable a simple vista.
No obstante, otras aplicaciones de razonamiento antrópico, como lo que plantea el antropólogo Brandon Carter y el filósofo John A. Leslie con el "Argumento Doomsday" no tienen una validez clara, especialmente en sus formas generalizadas. Dicho argumento probabilístico, visto como limitado por Cirkovic, establece una predicción del número de miembros que tendrá la especie humana en el futuro. De tal forma, hay comunidades de profesionales que evalúan estos riesgos todos los días. Sobre esta línea, los siguientes dos capítulos del libro muestran el punto de vista de “la disciplina de los sistemas de ingeniería y la industria de los seguros, respectivamente” (Bostrom; Ćirković, 2008).
En el capítulo 7, el profesor estadounidense Yacov Y. Haimes explica algunas estrategias para ordenar la forma de pensamiento sobre las variables de riesgo en ciertos proyectos de ingeniería de sistemas complejos. En ese sentido, el autor se pregunta cuáles son los conocimientos requeridos para la correcta toma de decisiones en cuanto a la mitigación de riesgos. Contestando a esta interrogante, el profesor menciona que, “los mandatos que buscan la verdad sobre la naturaleza compleja incognoscible de los sistemas emergentes; requiere intelectualmente de modeladores y pensadores libres de prejuicios capaces de experimentar con múltiples enfoques de modelado y simulación, y colaborar para soluciones adecuadas”, (Bostrom; Ćirković, 2008).
Haimes señala que la organización del análisis con respecto a la medida del valor esperado del riesgo puede limitarse. En consecuencia, los individuos que toman decisiones optan por una desagregación del riesgo más fina que ayude al estudio de la probabilidad de consecuencias con distinto rango de gravedad, por medio del “método de riesgo multiobjetivo” de Haimes.
En el capítulo 8, el sociólogo y geógrafo Peter Taylor analiza la relación entre la industria de los seguros y los riegos catastróficos globales. Según él, las empresas de seguros apoyan a las personas y a las organizaciones a gestionar las repercusiones financieras del riesgo por medio del permiso de intercambio de estos riesgos.
El sociólogo estadounidense señala que la manera en que pueden asegurarse los riesgos catastróficos de forma privada está obstaculizada por el alcance y el tipo del riesgo. Cabe destacar que ciertas empresas de seguros han dedicado poca atención a los riesgos catastróficos globales, pero han atendido una gran cantidad de riesgos menores. En ese sentido, ciertos conceptos y métodos pueden emplearse a los riesgos a cualquier escala.
Así pues, Peter Taylor subraya la relevancia de la cuestión de “incertidumbre”. Cuando se estudia un “modelo estocástico” de sucesos en algún aspecto, éste puede suponer una distribución de probabilidad que define posibles consecuencias. No obstante, aparte de la causalidad que provocaría el modelo, deben agregarse dos “fuentes más de incertidumbre”. Éstas son “los valores de los parámetros que se alimentan en el modelo y la incertidumbre que se da si el modelo describe correctamente los fenómenos en el campo examinado” (Bostrom; Ćirković, 2008).
Dichos estudios de “incertidumbres” son normalmente complicados de analizar de forma estadística rigurosa. Incluso, los mismos analistas algunas veces evaden las incertidumbres que son consideradas objetivas. Pero, esta forma de pensamiento puede traer como resultado “errores de juicio”. Con base en esto, Taylor menciona que, en estos análisis hay una mayor desviación al final de las curvas de probabilidad de excedencia y esto provoca la “subestimación de riesgos de ciertos eventos extremos”.
Asimismo, el autor resalta la importancia de dos estudios de encuestas que se hacen a dos empresas para entender cómo se perciben los riesgos. El primero realizado por la compañía de seguros Swiss Re en 2005. Se hicieron preguntas a ejecutivos de empresas multinacionales sobre cuáles de los riesgos para las finanzas de sus negocios les causaban mayor inquietud (Dato crucial 12). De acuerdo con los resultados, es notorio que dentro de las amenazas financieras de las compañías individuales, los peligros catastróficos globales no son tan importantes como los riesgos comerciales más directos. El segundo lo hizo el Foro Económico Mundial. Su informe de "Riesgo Global de 2007", categoriza a los riesgos por probabilidad y gravedad, con base en opiniones requeridas de compañías, líderes, economistas y académicos (Dato crucial 13).
En cuanto a los retos de las políticas públicas con respecto a los riesgos que se analizan en el capítulo 9 por el jurista y economista estadounidense Richard Posner, se puntualiza que el plan gubernamental para disminuir el riesgo catastrófico global se limita por las decisiones a corto plazo que toman los políticos con mandatos obstaculizados y muchos temas que también necesitan de su atención. Igualmente, la gestión de riesgos catastróficos globales algunas veces es costosa, por lo que no es fácil otorgarle un presupuesto.
Otra cuestión que Posner pone sobre la mesa son las políticas públicas que se implementan para riesgos específicos como: tsunamis, impactos de asteroides, bioterrorismo, experimentos aceleradores y calentamiento global. A pesar de que no hay posibilidad de hacer un estudio riguroso sobre este tema, es relevante tratar de cuantificar probabilidades, daños posibles y los costos que implicarían las contramedidas, con el objetivo de establecer prioridades y estrategias útiles para la mitigación.
Con esto, Posner propone la “probabilidad implícita” cuando no hay manera de fijar una probabilidad precisa sobre algún riesgo. Esto a causa de los gastos en mitigación comparados con la dimensión de los daños que implicarían, si se materializara la catástrofe. Por ejemplo, “si se gasta un millón de dólares al año para mitigar un riesgo que crearía mil millones de dólares en daños, se puede estimar que las políticas actuales asumen implícitamente que el riesgo anual de desastre es del orden de 1/1000” (Bostrom; Ćirković, 2008).
Es decir, las políticas públicas siguen el enfoque de que un millón de dólares es suficiente para mitigar los riesgos y que no hay necesidad de gastar más dinero en un riesgo aunque se piense que la probabilidad incluso es mayor a 1/1000. A este respecto, la crítica de Posner gira en torno al hecho de que la inversión que el gobierno emplea en la mitigación de riesgos catastróficos globales es insuficiente.
Parte II: Riesgos de la naturaleza
Ahora bien, hablando de riesgos provocados por la naturaleza, se dice que las erupciones volcánicas en tiempos históricos recientes han tenido repercusiones medibles en el clima mundial, provocando un enfriamiento del planeta Tierra en décimas de grado, efecto que duró un año. Sin embargo, como señala el geólogo que se dedica a los estudios medioambientales, Michael Rampino en el capítulo 10, dichas erupciones son pequeñas en comparación con las erupciones más grandes que han sido registradas. Tal es el caso de la erupción de un volcán en Toba, Indonesia que sucedió hace aproximadamente 75 000 años. Este suceso provocó la expansión de grandes volúmenes de ceniza fina y aerosoles en la atmósfera, con efectos parecidos a los que deja un “invierno nuclear” (Datos cruciales 14 y 15).
Así pues, la población humana parece haber pasado por una reducción drástica de tamaño por lo menos en una generación, según algunas estimaciones, disminuyendo a 500 hembras reproductoras en una población de 4 000 individuos. Tomando en cuenta la teoría de la catástrofe de Toba, la reducción de la población fue provocada por una súper erupción y la especie estuvo a punto de extinguirse. Incluso, ésta es considerada por Rampino como una de las peores catástrofes para los humanos (Dato crucial 16).
Conviene subrayar que, el daño global que ha causado el “súper-volcanismo” tiene origen en sus efectos climáticos. El siguiente paso de la erupción sería el “invierno volcánico” que implicaría la caída en la productividad agrícola que causaría una hambruna y algunos trastornos sociales. Esta perspectiva de Rampino sobre el supervolcanismo igualmente resultaría importante para estudiar los riesgos de la guerra nuclear y los impactos de asteroides o meteoritos. Cada uno de ellos ocasionaría problemas por el hollín y los aerosoles que afectarían a la atmósfera. Cuestión que enfriaría la Tierra cada vez más.
Y a aunque no se pueda prevenir una “súper erupción”, se podrían implementar medidas para aminorar sus efectos. Actualmente, hablando de suministros, hay una reserva que podría proveer cereales para dos meses, pues como una catástrofe de este estilo podría provocar la reducción de cultivos durante varios años, esta reserva y la de otros alimentos podrían evitar llegar a la hambruna u otras catástrofes que impliquen reducciones temporales en la producción agrícola a nivel global.
En el capítulo 11, William Napier, habla acerca de los riesgos catastróficos que causan las cometas y meteoritos. El escritor inglés describe la ciencia que explica este tipo de riesgos, en otras palabras, de dónde provienen los cometas y asteroides, qué tan seguido pasan y que efectos generarían los impactos de estos fenómenos (Dato crucial 17).
Napier considera que el peligro que suponen estos sucesos está en el mismo nivel que los peligros provocados por viajes aéreos y cuestiones similares. No obstante, la diferencia radicaría en que la financiación para la mitigación es insignificante, comparada con la que se dispone para la seguridad aérea. Con base en esto, hay un proyecto llamado Spaceguard que está impulsándose para mejorar esta situación (Dato crucial 18).
Tomando en cuenta que los asteroides componen la mayor parte de amenaza de los objetos cercanos a la Tierra, el proyecto pretende reducir su impacto. Con respecto a esto, se ha hecho un estudio sobre la posibilidad de que una amenaza sea desviada y al parecer se requeriría de un desarrollo tecnológico suficiente para obstaculizar el camino de un asteroide. Sobre este marco, el costo de producción de esta forma de defensa sería mayor que el costo de búsqueda de “impactadores”. Empero, el costo sería razonable si se trata de la protección de la Tierra.
De esta forma, conviene puntualizar que los asteroides y cometas no son el único peligro potencial en el espacio. Pues, existen otros peligros cósmicos que incluyen, "el cambio climático global de la fluctuaciones en la actividad solar, los grandes flujos de radiación y los rayos cósmicos de explosiones de supernovas o estallidos de rayos gamma” (Bostrom; Ćirković, 2008). Dichos riesgos son analizados en el capítulo 12 por Arnon Dar. Cabe mencionar que a pesar de que las investigaciones de estos riesgos resulten útiles y que los riesgos parezcan ser inofensivos, en realidad no hay una forma adecuada de continuar con sus estudio y mitigarlos.
Parte III: Riesgos de consecuencias no deseadas
Sin embargo, a pesar de la existencia de estos riesgos, el calentamiento global causado por las emisiones del efecto invernadero ha capturado una mayor atención del público. El cambio climático antropogénico se ha convertido en el ejemplo de las amenazas globales. El calentamiento global se apodera de una fracción desproporcionada de la atención prestada a los riesgos globales (Bostrom; Ćirković, 2008).
El dióxido de carbono y otros gases del efecto invernadero que se acumulan en la atmósfera causan un calentamiento en la temperatura de la Tierra y un incremento en el nivel del mar. Con respecto a esto, un informe del Panel Intergubernamental sobre Cambio Climático de las Naciones Unidas (IPCC), estima el aumento de la temperatura media global que se esperaría a finales del siglo XXI bajo la lógica de que no hay una mitigación concreta. La evaluación final contiene incertidumbre por la “tasa premeditada de emisiones de gases de efecto invernadero”, después de haber pasado el siglo, la incertidumbre del parámetro de “sensibilidad climática” y de otros factores. Por tanto, el IPCC, muestra la valoración con seis escenarios climáticos basados en distintos modelos y distintos supuestos (Dato crucial 19).
En el capítulo 13, David Frame y Myles Allen explican cuál es la ciencia básica de la “modelización climática”, especificando los escenarios de baja probabilidad de alto impacto. Con base en esto, puede decirse que la categoría de escenarios extremos es la que causa mayor preocupación. Si bien parece que la probabilidad es baja, la incertidumbre está presente cuando se piensa en el cambio climático. Frame y Myles también hablan sobre la mitigación política, señalando las complicaciones de delimitar metas de mitigación apropiadas, tomando en cuenta las incertidumbres sobre qué niveles de emisiones provocarían una “interferencia antropogénica” riesgosa en el sistema climático.
En el capítulo 14, el científico estadounidense Edwin Kilbourne examina algunas pandemias relevantes, incluyendo las características de sus patógenos y observa los elementos que contribuirían a la extinción, así como las repercusiones de futuros brotes. “Las enfermedades infecciosas han cobrado una enorme cantidad de sufrimiento y muerte en la especie humana a lo largo de la historia y continúan haciéndolo en la actualidad” (Bostrom; Ćirković, 2008) (Dato crucial 20).
La enfermedad pandémica es uno de los mayores peligros catastróficos globales que debe enfrentarse en la actualidad, pero algunas veces no se reconoce de esta forma. Un ejemplo de esto, es la imaginen que se tiene en el mundo, viendo a la pandemia de la influenza de 1918-1919 como menos grave que las consecuencias de la Primera y de la Segunda guerra mundiales. No obstante, este escenario es erróneo de acuerdo con datos oficiales (Dato crucial 21).
Más allá de afrontar las principales enfermedades que afectan al mundo, es crucial prevenir las nuevas enfermedades surgidas de pandemias potenciales, como el SARS, la gripe aviar y la tuberculosis farmacorresistente. Como lo dicen algunos representantes de la Organización Mundial de la Salud (OMS), “una acción temprana decisiva puede a veces cortar de raíz una pandemia emergente, posiblemente salvando la vida de millones de personas” (Bostrom; Ćirković, 2008).
Es por eso que los autores han puesto a las pandemias en la categoría de “riesgo de consecuencias no deseadas”, pese a que la gran parte de las enfermedades infecciosas provienen de la naturaleza, sin mencionar a las armas biológicas diseñadas. Este argumento gira en torno a que la evolución y la propagación de patógenos dependen de la civilización humana. De hecho, la cuestión de la propagación mundial de gérmenes se dio tras la conexión de rutas de viaje entre los continentes habitados.
En la actualidad, la globalización vista a través de los viajes y el comercio es la culpable de que una enfermedad contagiosa se extienda por todo el mundo en cuestión de días o semanas. Así pues, Kilbourne, menciona otro factor de la globalización que aumenta el riesgo de pandemia. Éste es la “homogenización de pueblos, prácticas y culturas”. “Cuanto más se asemeje la población humana a un nicho único homogéneo, mayor será el potencial de que un solo patógeno lo sature rápidamente” (Bostrom; Ćirković, 2008).
De esta forma, Kilbourne hace referencia al “síndrome de la manzana podrida” como consecuencia de la producción en masa de alimentos y behavioural fads. Él menciona que si un alimento contaminado lleva mil millones de bacterias y se pone en contacto con otros alimentos, como es el caso de la torta empaquetada que es enviada a millones de clientes, entonces es posible que una pandemia sea resistente. Sin embargo, cuando se habla de diversidad cultural o genética, la probabilidad de que un patrón sea utilizado a nivel universal antes de que se mida su riesgo va reduciéndose. Este patrón podría ser el ARN de un virus, una sustancia química peligrosa o una ideología opresiva.
Por el contrario, la inteligencia artificial, a diferencia de las pandemias, no se trata de un proceso continuo ni de un riesgo catastrófico global o una razón de inquietud tan seria. No obstante, con base en un punto de vista a largo plazo, el desarrollo de una inteligencia artificial (IA) que supere la capacidad del cerebro humano supone uno de los principales retos del futuro de la humanidad. En este punto, Eliezer Yudkowsky en el capítulo 15, habla de la IA como un elemento positivo y al mismo tiempo negativo dentro de la categoría de riesgo global.
El investigador especialista en inteligencia artificial hace un análisis despejando términos erróneos y limitaciones a la compresión. Después de esto, da su argumento puntualizando que una “superinteligencia radical” podría explotar en un escenario que se conoce como la “hipótesis singular”. Ésta indica que “las aseveraciones sobre la pendiente de transición deben distinguirse de las afirmaciones en el momento de su inicio”, (Bostrom; Ćirković, 2008).
Podría suponerse que el hecho de que las computadoras sean capaces de igualar las capacidades de pensamiento del ser humano se dará en un largo plazo, pero cuando esto pase, únicamente las computadoras podrán alcanzar niveles sobrehumanos en poco tiempo. Yudkowsky considera que la súper inteligencia debe verse como una gran forma de optimización poderosa. Ésta podría dominar al mundo de tal forma que logre sus propósitos. Para prevenir esta situación sería importante asegurarse de que este tipo de inteligencia tenga un sistema de metas “amigables para el ser humano”.
Debido a esta configuración, el autor muestra dos maneras distintas en las que podría haber fallas en esa implementación de “amistad” en la IA. Una sería la falla filosófica y la otra la falla técnica. En la primera se refiere a tener cuidado cuando se asigna un objetivo a la IA que a simple vista podría parecer dar un resultado atinado, pero que en realidad sería “moralmente inútil” y “radicalmente equivocado”. En la segunda, habla de la posibilidad de no obtener lo que se quiere, por la ejecución defectuosa del sistema de objetivos o consecuencias no esperadas de la manera en que se especificó el objetivo desde el inicio. Por tanto, el autor considera que es esencial investigar cómo llegar a esta relación amistad-súper-inteligencia antes de intentar crear una súper-inteligencia per se.
En el capítulo 16 se muestra la posibilidad de que los experimentos que implementan los físicos en aceleradores de partículas supongan un riesgo existencial. Tomando en consideración las inquietudes de tales riesgos, el director del colisionador Brookhaven Relativistic Heavy Ion encargó un informe oficial en 2000. Desde ese momento se han originado preocupaciones sobre la creación de aceleradores como el Large Hadron Collider. Siguiendo dicho informe, el teórico Frank Wilczek vislumbra tres escenarios de catástrofe.
“El primero se refiere a la formación de agujeros negros que podrían acumular materia circundante, tragando todo el planeta Tierra. El segundo sería la formación de negativa de charged stable strangelets que podrían catalizar la conversión de toda la materia ordinaria del planeta Tierra en materia extraña. El tercero sería el inicio de una transición de fase del estado de vacío, que podría propagarse hacia afuera en todas direcciones a la velocidad de la luz y destruir no sólo el planeta Tierra, sino toda la parte accesible del universo” (Bostrom; Ćirković, 2008).
Wilczek considera que estos escenarios en realidad son improbables por razones teóricas. Conviene subrayar que, los rayos cósmicos poseen energías mayores de que las que se tendrían en cualquiera de los aceleradores mencionados. Dichos rayos han amenazado la atmósfera de la Tierra durante miles de millones de años sin efectos catastróficos como resultado. Visto que las colisiones en los aceleradores de partículas no tendrían importancia desconocida con base en las que pasan en la naturaleza, se puede confiar en la seguridad de los aceleradores. De hecho, según los cálculos, resulta improbable que los experimentos de un acelerador de partículas provoquen una catástrofe existencial. La cuestión aquí es saber qué tan probable sería que esto ocurriera y en qué punto se consideraría como desastre existencial.
Al valorar esa probabilidad, se debe tomar en cuenta no solo la improbabilidad del resultado, sino la posibilidad de que los modelos o cálculos del riego puedan ser erróneos. Al considerarlo, es necesario evitar el “sesgo de exceso de confianza”. Se debe ver la posibilidad de que los especialistas estén conscientes de estos sesgos. Por ejemplo, los físicos cuentan con experiencia necesaria para hacer evaluaciones de los riesgos de los experimentos de “física de partículas”, incluso forman parte de una comunidad profesional que se interesa por los experimentos. Empero, la inquietud de un individuo promedio podría ser que los estímulos a los que se enfrentan los expertos puedan impulsarlos a quitarle importancia a los riesgos. Sucesivamente, algunos especialistas podrían verse influenciados por los riesgos que anuncian los medios. El tema relevante en este sentido es identificar qué tanto y en qué circunstancias se estima un riesgo.
Por otra parte, el profesor inglés Robin Hanson en el capítulo 17, se enfoca en el colapso social como desencadenante de otras catástrofes. Con base en esto, Hanson hace referencia a un ejemplo. Menciona que el principal motivo para ser cauteloso cuando se sube las escaleras no es la posibilidad de un resbalón y que haya que regresar sobre un paso, sino que este resbalón número uno podría desencadenar un segundo y así hasta caer de muchos escalones y lastimarse. De esa misma forma deben ser entendidas las catástrofes, no sólo como efectos directos sino como causantes del colapso que puede repercutir en sistemas económicos y sociales.
Aunque este argumento no se emplearía a los riesgos discutidos anteriormente, como la cuestión de los aceleradores de partículas o la super-inteligencia de acuerdo con Yudkowsky. Por lo que en esos riegos se sabe que hay poca probabilidad de “resultados intermedios”. Empero, para otra clase de riesgos como: tormentas, tornados, terremotos, inundaciones, incendios forestales, ataques terroristas, plagas y guerras hay una amplia gama de resultados y una gran parte del riesgo en general tiene que ver con el colapso o disrupción social.
Hanson menciona que estos riegos siguen una “ley de distribución de potencias”. Es decir, la mayor parte del resultado esperado de una clase de riesgo puede resultar en pequeñas perturbaciones o en grandes catástrofes. Un ejemplo de esto podrían ser los accidentes automovilísticos. Éstos tienen un gran exponente, lo que irradia en que gran parte de las muertes por accidentes automovilísticos sucedan en muchos accidentes pequeños en los que se vean implicados dos automóviles. Por el contrario, las guerras y las plagas, tienen pequeños exponentes, lo cual quiere decir que la mayor parte del daño esperado acontece en conflictos y pandemias.
Con respecto a la “teoría del crecimiento económico”, ésta estudia cuales son los determinantes del crecimiento económico a largo plazo y las políticas que deben implementarse para estimularse. El autor la aplica tomando en cuenta el lado opuesto de este crecimiento, planteando una disminución inmediata de productividad causada por la creciente destrucción del capital social y la coordinación. Por ejemplo, un juez que no estaría de acuerdo con los sobornos, podría sucumbir a ellos si su vida estuviera en peligro, lo que contribuiría a que hubiera robos a otras personas y así sucesivamente. Lo cual evitaría que otros realizaran inversiones sabiendo que podrían robarse en un futuro. Además de esto, la desconfianza de los individuos por los bancos podría incrementar impidiendo que las instituciones financieras funcionen.
“La productividad de la economía mundial depende tanto de la escala como de las formas de capital que deben coordinarse con delicadeza”, (Bostrom; Ćirković, 2008). Sobre esta base, debería haber una gran preocupación de que una alteración pequeña o múltiples perturbaciones amenacen alguna parte frágil del sistema y que provoquen un derrumbe de gran alcance en la economía mundial.
Asimismo, Hanson da una recomendación de cómo algunos riesgos podrían ser transformados a “riesgos no existenciales”. Él sugiere que se piense en la construcción de refugios habitados, situados en un pozo de la mina y bien equipados con provisiones. Esto podría mantener un pequeño grupo de personas para poder repoblar un planeta Tierra “post-apocalíptico”, una especie de “Arca de Noe”. Aunque la prevención de catástrofes graves sería una mejor opción para no tener que recurrir a esto. Sin embargo, sería importante verificar si alguna variación de esta propuesta sería viable para disminuir la probabilidad de extinción humana, en caso de ser necesario.
Parte IV: Riesgos de actos hostiles
Haciendo hincapié en los riesgos de actos hostiles, el espectro nuclear de Armageddon, que atormentaba al público durante la Guerra Fría se ha retirado de alguna forma, (Dato crucial 22). Esto debido a que hay nuevas inquietudes, como los problemas ambientales y el terrorismo. Empero, en el capítulo 18 se remarca que la guerra nuclear aún es una amenaza severa y que existen posibilidades de que las relaciones entre Estados Unidos y Rusia se vuelvan a distanciar hasta que una crisis provoque una guerra nuclear. Las carreras armamentistas podrían aumentar los arsenales de ambos países en el futuro, (Dato crucial 23), (Dato crucial 24).
Otra posibilidad sería que la guerra nuclear estalle entre las potencias nucleares, aparte de los viejos enemigos en la Guerra Fría, un peligro que incrementaría mientras más naciones se agregaran al club nuclear, específicamente las naciones que están en constantes enfrentamientos regionales, como es el caso de India, Pakistán, Corea del Norte e Israel. Por tanto, mientras más naciones tengan acceso a bombas, más complicado será frenar una mayor proliferación. La tecnología y el conocimiento podrían difundirse ampliamente, lo cual reduciría los límites técnicos y algunos países que renunciaron a las armas nucleares anteriormente, se sentirían orillados a cambiar de parecer y a continuar por el “camino nuclear”.
Una tercera posibilidad es que se desencadene una guerra nuclear sin intención. De acuerdo con Joseph Cirincione, hubo una situación como esta en 1995. Él señala que en ese año hubo una confusión por parte de los oficiales militares rusos, ya que pensaron que un cohete meteorológico noruego, era un misil balístico proyectado por un submarino estadounidense. Boris Yelsin fue el primer presidente ruso en preparar su equipo de defensa nuclear. Contaba con algunos minutos para decidir presionar un botón que proyectaría misiles nucleares, pero se percató de que sus radares estaban errados y no lanzó ningún misil.
Aunado a esto, algunos otros incidentes se han considerado como causantes de que el mundo se encontrara a la orilla del holocausto nuclear. Tal es el caso que sucedió en la crisis de los misiles cubanos, en donde, según los informes del presidente estadounidense Kennedy, existía la probabilidad de que Cuba se uniera a una guerra nuclear entre Estados Unidos y la URSS. Así que, para disminuir los riesgos, según Cirincione, se debe trabajar en solucionar los conflictos regionales, promover el Tratado de No Proliferación Nuclear y progresar hacia la eliminación de armas nucleares.
Los autores William Potter y Gary Ackerman explican en el capítulo 19, las diversas formas que el terrorismo podría adoptar. Éstas son “la dispersión de material radiactivo por explosivos convencionales, el sabotaje de instalaciones nucleares, la adquisición de material que conduzca a la fabricación y detonación de una bomba nuclear tosca, la adquisición y detonación de un arma nuclear y el uso de algunos medios para engañar a un estado nuclear para que lance una ojiva”, (Bostrom; Ćirković, 2008).
Potter y Ackerman se enfocan en el terrorismo nuclear de “altas consecuencias” que se refleja como aquellos que aplican las tres últimas alternativas del listado anterior. Los autores estudian la parte de la oferta y la demanda del terrorismo nuclear, las repercusiones de un ataque terrorista nuclear, la forma futura de amenaza y al final explican las recomendaciones de política.
Conviene destacar que, hasta en la actualidad ningún actor estatal ha sido capaz de apoderarse de un arma de fisión. Incluso, no hay pruebas contundentes de que Al Qaeda o Aum Shinrikyo hayan utilizado sus “motivaciones, sus recursos económicos sustanciales, sus habilidades organizacionales demostradas, su red de seguidores y seguridad de un país aliado para progresar en el camino hacia la obtención de una capacidad de armas nucleares”, (Bostrom; Ćirković, 2008). Lo que más se puede deducir de la información limitada que se encuentra en las fuentes públicas es que los impedimentos que les resultaron más complicados de afrontar fue el acceso a material fisible que requerían.
Empero, pese a este historial, algunos expertos siguen inquietos al respecto. Uno de ellos es Graham Allison que propone una apuesta permanente de 51 a 49 probabilidades de pasos anti-proliferación nuevos y radicales de descubrimiento de que haya un enfrentamiento nuclear terrorista en la próxima década. Otros especialistas proponen probabilidades más bajas, sin tomar en cuenta la postura de Allison.
Conviene mencionar que, en general se destaca la importancia de la prevención del terrorismo nuclear para evitar peligros y más aún de la necesidad de reducir el acceso a material fisionable a ciertos individuos, (Dato crucial 24). Aunque Potter y Ackerman creen que lo más escaso en este sentido es el liderazgo sostenido de alto nivel requerido para cambiar la retórica en una ejecución efectiva.
Con relación a este peligro nuclear, en el capítulo 20, el astrobiólogo Christopher Chyba y el biólogo molecular Ali Nouri, analizan asuntos vinculados con la biotecnología y la bioseguridad, pues tanto la tecnología biológica como la biología nuclear, se pueden aplicar a la construcción de armas de destrucción masiva, pero también hay algunas diferencias. La primera se refiere a que las armas biológicas son capaces de desarrollarse en infraestructuras de tamaño reducido fácilmente oculto y no necesitan “materias primeras inusuales” para su fabricación. La segunda es que un agente biológico infeccioso se puede expandir más allá del lugar de lanzamiento original, prácticamente por todo el globo.
De esta forma, debe puntualizarse que, las amenazas a la bioseguridad se dividen en varias clases, incluidas “las enfermedades que ocurren de forma natural, programas estatales ilícitos de armas biológicas, actores no estatales, hackers biológicos y accidentes de laboratorio u otra liberación inadvertida de agentes de enfermedades”, (Bostrom; Ćirković, 2008). Conviene tener en cuenta que la cantidad de personas que han muerto en los últimos años por amenazas en la primera categoría (enfermedades de carácter natural) tienen una magnitud de seis o siete grados mayores que el número de muertes en las siguientes tres categorías mezcladas. No obstante, la biotecnología tiene amenazas de gestación que se ampliarán en los siguientes años, mientras las habilidades incrementen y proliferen.
Tomando esto como punto de referencia, los autores muestran una lista de desarrollos recientes relacionados con este tema. En primer lugar, un conjunto de investigadores australianos buscan maneras de dominar la población de conejos del país añadiendo el gen de la “interleucina-4” a un virus de la viruela de un ratón con el fin de esterilizar animales. Como resultado, contrario a lo que se esperaba, el virus debilitó el sistema inmunológico del animal huésped y todos los animales fallecieron, incluidos aquellos previamente vacunados. Otro grupo le dio seguimiento al experimento y creó una versión del virus 100% letal en ratones vacunados pese a la medicación antiviral administrada a los animales.
En segundo lugar, el virus de polio se ha condensado por medio de suministros de productos químicos. La primera vez que esto se llevó a cabo, se necesitó de un proyecto de investigación innovador de largo alcance. Desde ese momento, el tiempo requerido para sintetizar el genoma de un virus comparado con el tamaño del virus de polio se ha disminuido a semanas. Igualmente, el virus responsable de la pandemia de gripe española ha sido resintetizado y actualmente se encuentra en los laboratorios de Estados Unidos y Canadá.
En tercer lugar, la tecnología capaz de modificar las propiedades de virus y otros microorganismos progresa rápidamente. El método actual de “desarrollo de interferencia ARN” da a los investigadores un medio liso que elimina genes seleccionados en humanos y otros organismos. En ese sentido, la biología sintética se lleva a cabo como un nuevo campo, cuyo fin es facilitar la creación de dispositivos biológicos y nuevas clases de microbios.
Con respecto a esta lista y “teniendo en cuenta que los genomas completos de cientos de bacterias, hongos y virus, se han secuenciado y depositado en una base pública de datos en línea, las posibilidades futuras podrían verse como “aterradoras””, (Bostrom; Ćirković, 2008). Esto debido a que los límites tecnológicos para la producción de súper-errores cada vez se disminuyen más, a medida que los conocimientos biotecnológicos y los equipos se extienden con más fuerza.
El doble uso del equipo, la experiencia y la ventaja de que las instalaciones puedan ser pequeñas y fáciles de esconder, plantean retos complicados para aquellos que quieran controlarlo. Para que un régimen regulatorio marche bien, habría que lograrse un equilibrio entre la prevención de abusos y el establecimiento de investigación requerida para desarrollar tratamientos y diagnósticos. Chyba y Nouri revisan varias estrategias para “promover la bioseguridad, incluida el análisis automatizado de secuencia de genes presentado para la síntesis de ADN en instalaciones centralizadas”, (Bostrom; Ćirković, 2008). Incluso, hay una gran probabilidad de que la bioseguridad obtenga una mayor importancia y que se requiera de un enfoque múltiple para afrontar los riesgos de los diseñadores de patógenos.
Así pues, Chris Phoenix y Mike Trender en el capítulo 21 muestran a la nanotecnología como uno de los causantes de riesgos catastróficos globales. Ellos la dividen entre “tecnologías a nanoescala” que existen en la actualidad y se crearán en el futuro y la “fabricación molecular” que continua siendo un tecnología que se desarrollará en el futuro. Las primeras tecnologías, según los autores, no plantean nuevos riesgos catastróficos globales a simple vista, pero en algunos casos éstas podrían incrementar o apoyar en la mitigación de algunos de los otros riesgos con base en su volumen. Por consiguiente, Phoenix y Treder se centran principalmente en las capacidades y amenazas que supone la fabricación molecular. Si bien esta tecnología no es un riesgo actual, a largo plazo podría convertirse en uno extremadamente severo.
Continuando con este riesgoso futuro, la nanotecnología molecular ampliaría el dominio sobre la estructura de la materia. Los sistemas de máquinas moleculares facilitarían una rápida y económica fabricación de objetos microscópicos y macroscópicos creados con precisión atómica. Estos sistemas de producción tendrían millones de instrumentos microscópicos de montaje. A su vez, estos crearían objetos añadiendo moléculas a una pieza por medio de reacciones químicas posicionalmente dominadas.
En ese sentido, las estructuras que podrían crearse con este tipo de tecnología, sobrepasan los ensambladores biológicos moleculares que provienen de la naturaleza. Aunado a esto, algo que podría construirse con la nanotecnología podría ser una nanofábrica. Un lugar para almacenar nanobots microscópicos para fines médicos, computadoras de alta velocidad, materiales diamonoides muy ligeros y resistentes y nuevas formas para eliminar contaminantes del medio ambiente, plantas de fabricación de escritorio que produzcan estructuras atómicamente precisas por medio de planos descargables, colectores solares económicos, tecnología espacial mejorada y sensores de producción masiva de muchos tipos. Dentro de este grupo también estarían tanto la producción masiva económica, como las armas convencionales mejoradas y las nuevas clases de armas que se crean por medio de nanotecnología molecular.
Este tipo de tecnología podría utilizarse para un sinfín de propósitos, tanto ventajosos como perjudiciales. Los autores explican los riesgos catastróficos globales que podrían derivarse de la tecnología de fabricación avanzada, incluidos la guerra, el colapso social y económico, las maneras destructivas de gobernanza global, el avance en inteligencia, el daño medio ambiental, así como nanobots que actúan en el ambiente natural, consumiendo o destruyendo la biosfera del planeta Tierra (ecofagia). Como conclusión de esto, los autores mencionan lo siguiente.
Debido a la carencia de alguna forma de fuerza preventiva o protectora, la fabricación de productos impulsaría una amplia gama de actores de diversas clases. Éstos podrían ser individuos, grupos, empresas y países que tengan la capacidad necesaria para destruir a todos los seres humanos que se encuentren vulnerables ante el riesgo. Si bien hay poca probabilidad de que un actor poderoso pierda la cabeza, la probabilidad de que se creen y liberen armas devastadoras sin intención igualmente debe considerarse. Entonces, la probabilidad de que un enfrentamiento entre dos partes capaces de provocar destrucción aumentando hasta que uno se sienta obligado a desencadenar el apocalipsis es alta. En otras palabras, esto significa que, a menos que las defensas se preparen contra armas desinadas a ser destructivas, un punto que requiere la investigación de manera urgente es que el número de actores que tratan de obtener armas sea reducido.
Por otro lado, en el capítulo 23, Bryan Caplan aborda otro riego catastrófico global, el totalitarismo. El economista estadounidense hace hincapié en que los gobiernos totalitarios de la Alemania nazi, la Rusia soviética y la China maoísta fueron los culpables de decenas de millones de decesos en siglo XX. Empero, a diferencia de un riesgo provocado por el impacto de un asteroide, el totalitarismo estudiado como riesgo global es complicado de analizar de forma objetiva, y es difícil obtener en este estudio un "consenso ideológico cruzado" sobre la mejor opción para mitigar este riesgo. Empero, es necesario resaltar los riesgos detrás de las formas opresivas que maneja el gobierno, en este caso estos regímenes totalitarios. Conviene destacar que la opresión que se ha dado en la historia ha sido una de las principales “pesadillas” más frecuentes del desarrollo humano y es una cuestión a la que el ser humano aún es vulnerable.
Como puntualiza Caplan, aparte de ser un peligro por sí mismo, este tipo de régimen, igualmente es capaz de provocar otros riesgos. En este punto, los individuos dominados por regímenes totalitarios temen publicar “malas noticias” y el liderazgo del totalitarismo tiene muchas críticas y opiniones opositoras. Cuestión que puede causar que estos regímenes tiendan a ignorar los peligros que se acerquen y a cometer errores severos de política. No obstante, pese a estos riesgos, los regímenes totalitarios cuentan con ciertos beneficios en comparación con sociedades más “democráticas”. Éstos son la represión mediante la fuerza bruta y la distribución masiva de recursos. Gracias a ellos, las formas totalitarias han sido eficaces.
Aunque hay dos elementos que según Caplan han obstaculizado la durabilidad de este tipo de regímenes. El primero es el tema de la sucesión. Un mandatario fuerte puede mantener el poder mientras esté vivo, pero el poder del partido que represente puede caer cuando se nombre un sucesor que supuestamente mantendrá el status quo político y obtendrá una posición de liderazgo tras la muerte de su predecesor.
El segundo factor es la existencia de algunos países no totalitarios. Estos son un problema, puesto que muestran la idea para los individuos que son controlados por el totalitarismo, de libertad, provocando su insatisfacción y malestar con el sistema en el que viven. Así pues, las medidas que podrían tomar los líderes totalitarios podrían limitar el contacto con el mundo exterior, como fue el caso de la Albania comunista y es el caso de Corea del Norte. No obstante, la filtración de información resulta probable. Asimismo, si el aislamiento es extremo es posible que el país que recurra a esta opción se atrase en la economía y el aspecto militar, contribuyendo a mostrarse débil ante una invasión o un cambio de régimen impuesto.
Sin embargo, existe la posibilidad de que estos dos puntos disminuyan gracias a los desarrollos futuros. Los avances tecnológicos podrían resolver el problema de la sucesión y la existencia de escáneres cerebrales podría adoctrinar a los “escépticos de armario”. Igualmente, el control de la población podría facilitarse por medio de nuevas tecnologías de vigilancia y se podrían crear nuevos fármacos psiquiátricos para incrementar la “docilidad” sin disminuir la productividad. Asimismo, la medicina capaz de prolongar la vida podría hacer lo mismo con la vida útil del líder para reducir de otra forma el problema de sucesión. En cuanto a la existencia de países no totalitarios, el autor se muestra inquieto ante un posible surgimiento de un gobierno mundial. Un gobierno de esta naturaleza aunque comenzara siendo democrático, en cualquier momento podría transformarse en totalitario. Y si se habla de un “régimen totalitario mundial”, éste podría contar con un gran poder de permanencia debido a su falta de enemigos externos.
Con el objetivo de tener una discusión productiva sobre estos temas, Caplan reconoce la importancia de dos posturas diferentes para tener una consideración en favor de alguna posición denominada X contra otra X se toma en cuenta la posición que se adoptará. Por ejemplo: “Si la gente viviera para siempre, sería un poco más probable que surgiera un totalitarismo estable, pero sería algo fuera de lo común obligar a todos a morir de vejez para evitar un pequeño riesgo de ser asesinado por la policía secreta en mil años, (Bostrom; Ćirković, 2008). Se pueden fortalecer determinadas formas nuevas de gobernanzas globales, considerando al mismo tiempo la preocupación del peligro del totalitarismo global sobre el que habla Caplan.
Conclusiones y direcciones futuras
Como conclusión, de acuerdo con los autores, los riesgos catastróficos más probables se originan de actividades antropológicas, sobretodo de la civilización industrial y las tecnologías avanzadas. Aunque la industria y la tecnología no podrían verse como culpables de estas situaciones, ya que también han traído beneficios para la humanidad. A pesar de la creación de nuevos riesgos catastróficos globales, éstos han disminuido su escala en muchas partes del mundo, debido a la “sociedad tecnológica moderna”. Incluso, “los desastres locales y personales como el hambre, la sed, la depredación, las enfermedades y la violencia a pequeña escala han reclamado muchas más vidas que los cataclismos globales”, (Bostrom; Ćirković, 2008).
Tomando en cuenta los niveles de riesgo que se proyectan en las estadísticas, el mundo cuenta con una mayor seguridad en la actualidad. Los riesgos catastróficos globales supuestamente son los mayores cuando se habla de alcance, pero no cuando se hace referencia a la gravedad esperada. Al mismo tiempo, tanto la tecnología como las organizaciones sociales complejas promueven medios para mitigar riesgos restantes. Sin embargo, es relevante identificar que los mayores riesgos catastróficos globales que enfrenta la humanidad no son completamente externos, sino que están estrechamente relacionados con los resultados directos e indirectos, previstos e imprevistos, del propio comportamiento humano.
Uno de los principales peligros catastróficos hoy en día a nivel global es una pandemia infecciosa. Sus estadísticas suponen un reto para la categorización de las enfermedades pandémicas. Incluso, se podría decir que estas enfermedades no resultan un riesgo como el que provoca una catástrofe global. De hecho, “la una individualización más fina del peligro, basada en agentes infecciosos específicos, al menos algunos de las pandemias que ocurren actualmente (como el VIH / SIDA, que causa casi 3 millones de muertes al año) presumiblemente se calificaría como catástrofes globales”, (Bostrom; Ćirković, 2008). Con un discurso parecido, se podría decir que la enfermedad cardiovascular y el cáncer son definidas como catástrofes globales en curso, (Dato crucial 26).
Igualmente es esencial considerar la principal causa de muerte y discapacidad, que es el envejecimiento y representa dos tercios de 57 millones de muertes que ocurren cada año, junto con una gran pérdida de salud y capital humano. Incluso, si el envejecimiento no tuviera seguridad, pero sí probabilidad estaría en el primer lugar de riesgos catastróficos. No obstante, la cuestión de que el envejecimiento no sea una posible causa, sino una cierta causa de muerte presente debería ser una señal de alerta para no subestimar el tema. En cuanto se tenga una perspectiva realista para gestionar el problema, como sería el caso de la distribución de información sobre estilos de vida más saludables o una inversión fuerte en biogerontología, se podría disminuir un número esperado de muertes, haciendo un avance parcial en este problema, en lugar de eliminar algunos riesgos catastróficos globales tomando en cuenta su volumen.
Otros riesgos catastróficos globales sí son sustanciales como es el caso de los riesgos de la guerra nuclear, la biotecnología y el terrorismo nuclear. Sobre un período de tiempo algo más largo, “los riesgos de la fabricación molecular, la inteligencia artificial y el totalitarismo pueden aumentar en prominencia, y cada uno de estos últimos es potencialmente existencial”, (Bostrom; Ćirković, 2008).
Aunque el hecho de que un riesgo particular sea mayor que otro, no quiere decir que se deban dedicar más recursos para su gestión. Existe la posibilidad de que no se pueda hacer nada para frenar algunos riesgos. Y para otros, quizás los recursos para su mitigación sean muy inaccesibles o peligrosos. De hecho, un pequeño riesgo merece ser considerado como prioridad si la solución es económica y sencilla de implementar. Un ejemplo de esto es el agotamiento antropogénico de la capa de ozono, una cuestión que está próxima a ser resuelta. Sin embargo, hay otros riesgos más urgentes e importantes que necesitan de atención inmediata.
Se requiere de estudios continuos de riesgos individuales a largo plazo, específicamente abordando los riesgos potencialmente más grandes y los poco comprendidos como los que causa la biotecnología, la fabricación molecular, la IA y los riesgos sistemáticos. Igualmente, son necesarios los estudios para reconocer y valorar posibles estrategias de mitigación. Conviene subrayar que, para algunos riesgos y desastres en curso ya se tienen contramedidas pensadas que pueden ser accesibles, así que es en estos casos donde se requiere de liderazgo para asegurar el establecimiento de programas. Aunado a esto, es importante hacer estudios para aclarar problemas metodológicos que se deriven del estudio de los riesgos catastróficos globales.
Para finalizar esta introducción, los autores agregan algunos elementos adicionales para frenar un riesgo catastrófico global. Entre ellos destacan el enfoque de producción de información dentro del estudio de riesgos individuales, tales como señales de alerta temprana, formas de calcular el progreso hacia la reducción de riesgos y modelos cualitativos para la evaluación de riesgos. Además, proponen un desarrollo e implementación de metodologías más avanzadas para agregar datos y pronósticos probabilísticos, como la predicción de mercados. Asimismo, sugieren que haya un enfoque en desarrollar y evaluar una posible mitigación de estrategias, por utilidad directa y por los instrumentos de política que podrían contribuir al riesgo.
Igualmente, recomiendan darle una mayor atención a los riesgos existenciales y a la singularidad metodológica de las cuestiones que planten. Además de crear un comunidad de riesgo interdisciplinaria e internacional más fuerte agregando no solo especialistas en muchas áreas del mundo académico, sino también profesionales y políticos que implementen medidas de reducción de riesgo, para acortar la brecha entre la teoría y la práctica.
Por último, consideran relevante promover un discurso crítico que aborde cuestiones esenciales de una forma más reflexiva y analítica que en la actualidad y tomar en cuenta los riesgos catastróficos globales, así como su gestión dentro de un ámbito de retos y oportunidades para “salvaguardar y mejorar la condición humana”.
1. Se estima que el fin de la vida de la Tierra llegará en 0.9 millones y 1.5 millones de años a partir del siglo XXI.
2. A modo de comparación, se necesitaron aproximadamente 1.2 mil millones de años desde el surgimiento de la reproducción sexual y los organismos multicelulares simples para que la biosfera evolucionara a su estado actual, y solo unos pocos millones de años para que la especie humana evolucionara a partir de sus antepasados antropoides.
3. Las últimas estrellas dejarán de brillar en 100 billones de años desde ahora. Más tarde, la materia misma se desintegrará en sus constituyentes básicos.
4. Dentro de 10 años elevados a la centésima potencia, incluso los agujeros negros más grandes se habrán evaporado.
5. Han habido quince extinciones masivas en los últimos 500 millones de años, y cinco de ellas eliminaron más de la mitad de todas las especies que en ese entonces habitaban la Tierra.
6. La “Gran Mortandad” tuvo lugar hace 251.4 millones de años. Ésta es la madre de todas las extinciones masivas, pues eliminó más del 90% de todas las especies y muchas familias filogenéticas enteras. Tomó más de 5 millones de años para que la biodiversidad se recuperara de esta situación.
7. En particular, el cometa que golpeó la Tierra hace 65 millones de años, que se cree que fue el responsable de la desaparición de los dinosaurios, podría haber sido una sine qua non para el posterior ascenso del Homo sapiens, al eliminar un nicho ecológico que podría haber sido ocupado por grandes mamíferos, incluidos los antepasados de los seres humanos.
8. Se dice que al menos 99.9% de todas las especies que alguna vez han caminado, gateado, volado, nadado o habitado en otro modo en la Tierra están extintas.
9. Se cree que los linajes de Homo sapiens y Homo neandertales divergieron hace unos 800 000 años.
10. Los Homo neandertales no alcanzaron la extinción en Europa hasta hace 3 000 a 24 000 años, muy probablemente como un resultado directo de la competencia con el Homo sapiens.
11. Se cree que Homo floresiensis ha sobrevivido hasta hace 12 000 años, aunque persiste la incertidumbre sobre la interpretación de los hallazgos.
12. El riesgo relacionado con la computadora se calificó como le riesgo de mayor prioridad, seguido por los riesgos de comercio exterior, gobierno corporativo, riesgos operacionales, de instalación y de responsabilidad. Los desastres naturales ocuparon el séptimo lugar y el terrorismo el décimo.
13. De acuerdo con el informe de "Riesgo Global de 2007" del Fondo Económico Mundial tomado a un plazo de 10 años, dos riesgos recibieron una calificación de gravedad de más de 1 billón de dólares, a saber, un colapso de los precios de los activos (10-20%) y reducción de la globalización (1-5%). Cuando la gravedad se midió en número de muertes en lugar de pérdidas económicas, los tres riesgos principalmente fueron: pandemias, enfermedades del mundo en vías de desarrollo y guerras civiles e interestatales. No obstante, varios de los riesgos de esta encuesta estaban mal definidos, lo que dificulta la interpretación de las opiniones informadas. Si uno desea asignar probabilidades a los riesgos o rangos de acuerdo con la severidad o probabilidad, un primer paso esencial es presentar definiciones claras de los riesgos que se van a evaluar.
14. Las temperaturas de la tierra se redujeron globalmente en -15C, y el enfriamiento de la superficie del océano de 2-6 C, podría haberse extendido durante varios años.
15. La persistencia de una cantidad significativa de hollín en la atmósfera durante uno a tres años podría haber llevado a un enfriamiento del clima que duraría décadas (debido a las retroalimentaciones climáticas como el aumento de la capa de nieve y el hielo marino que provocan una mayor cantidad de radiación solar podría ser reflejada de regreso al espacio).
16. En promedio, ocurre una súper erupción al menos una vez cada 50 000 años. Sin embargo, es posible que haya habido más súper-erupciones que aún no han sido identificadas en el registro geológico.
17. Para producir un evento que perturbe la civilización, un impacto necesitaría un diámetro de al menos uno o dos kilómetros. Un impacto de diez kilómetros, al parecer, tendría una buena posibilidad de provocar la extinción de la especie humana. Pero incluso sub-kilómetro los impactos podrían producir daños que alcancen el nivel de una catástrofe global, dependiendo de su composición, velocidad, ángulo y lugar de impacto.
18. "El proyecto Spaceguard" que recibe cuatro millones de dólares anuales de la NASA, aparte de las contribuciones de otros voluntarios, tiene el objetivo de encontrar 90% de los asteroides cercanos a la Tierra a más de un kilómetro de distancia a finales de 2008.
19. Según IPCC, los modelos que plantea son los siguientes: El modelo 'bajo' predice un calentamiento global medio de + 1.8 ° C (rango de incertidumbre 1 .1-2.9 ° C); el modelo 'alto' predice el calentamiento por + 4.0 ° C (2.4-6.4 ° C). Aumento estimado del nivel del mar predicho por los dos países más extremos. Los escenarios de los seis considerados son 1 8-38 em y 26-59 em, respectivamente.
20. Las muertes por enfermedades infecciosas representan actualmente aproximadamente 25% de todas las muertes en todo el mundo. Esto equivale aproximadamente a 15 millones de muertes por año. 75% de estas muertes ocurren en el sudeste asiático y África subsahariana. Las cinco enfermedades más comunes, debido a una enfermedad infecciosa son infecciones de las vías respiratorias superiores (3.9 millones de muertes), VIH / SIDA (2.9 millones), enfermedades diarreicas (1.8 millones), tuberculosis (1.7 millones) y malaria (1.3 millones).
21. Aunque se estima que la Primera Guerra Mundial causó directamente alrededor de 10 millones de militares y 9 millones de civiles muertos, se cree que la gripe española ha matado al menos a 20-50 millones de personas. El 'factor de pavor' relativamente bajo asociado con esta pandemia podría deberse en parte al hecho de que solo aproximadamente el 2-3% de los que se enfermaron murieron a causa de la enfermedad. (El recuento total de muertes es enorme porque un gran porcentaje de la población mundial estaba infectado.)
22. El número de armas nucleares en el mundo se ha reducido a la mitad, de una Guerra Fría de 65 000 en 1986 a aproximadamente 26 000 en 2007, con aproximadamente 96% de estas armas en poder de Estados Unidos y Rusia.
23. El suministro mundial de plutonio ha aumentado constantemente hasta aproximadamente 2 000 toneladas, diez veces más de lo que queda atado en ojivas, y se podrían producir más.
24. Algunos estudios sugieren que en una guerra total que involucre la mayoría de las armas en los arsenales estadounidenses y rusos actuales, 35-77% de la población de Estados Unidos (105-230 millones de personas) y 20-40% de la población rusa (28-56 millones de personas) serían asesinadas. Efectos retardados e indirectos, como colapso económico y un posible invierno nuclear, podría hacer que la muerte final fuera mucho peor.
25. En 2002, la Alianza Global del G-8 estableció un objetivo de 20 mil millones dólares que se comprometerían durante un período de diez años con el fin de prevenir que los terroristas adquieran armas y materiales de destrucción masiva.
26. La enfermedad cardiovascular es responsable de aproximadamente 30% de la mortalidad mundial, o 18 millones de muertes por año y el cáncer provoca 8 millones de muertes a nivel mundial.
El texto vislumbra un escenario de combate y adaptación frente al colapso medioambiental en que el los autores plantean una urgencia de responsabilidad ambiental corporativa y social, con el fin de evitar una inminente crisis civilizatoria que desbordaría a la dimensión económica por el funcionamiento descontrolado de la sociedad capitalista. Asimismo, esta crisis de la especie implicaría un quiebre en la cuestión ambiental, energética, política y social, traducida en una crisis multimodal.
En ese sentido, la destrucción del ambiente que se muestra en dicho contexto comprende el deterioro de los procesos metabólicos como el clima, y sus elementos más importantes como el agua y el uso de los territorios, haciendo énfasis en la acción de la corporaciones como los principales sujetos de este fenómeno medioambiental. Esto debido a que la expansión trasnacional de dichos actores genera prácticas, alianzas y visiones acerca del manejo de las relaciones globales, hablando de las relaciones entre naciones y empresas y entre estados y empresas que llevan como resultado a una crisis civilizatoria. Bajo esta lógica, puede verse un cambio en las fronteras de capital en el que los avances científicos, tecnológicos y sociales se vuelven relevantes. Así pues, las fronteras que se han vuelto más importantes en la actualidad son: la codificación de la vida, las ciencias cognitivas, la exploración del espacio exterior, las nanotecnologías, la remediación ambiental y la manipulación del clima.