Ir al contenido

Riesgos catastróficos globales

De Wikipedia, la enciclopedia libre
(Redirigido desde «Riesgo existencial»)
Une boule de feu s'écrasant dans l'océan.
Impresión artística de un impacto cósmico. Tal impacto podría haber sido la causa de la extinción de los dinosaurios no avianos.[1]

La noción de riesgo catastrófico global o riesgo de desastre global es introducida en 2008 por el filósofo Nick Bostrom para designar un evento futuro hipotético que tenga el potencial de degradar el bienestar de la mayoría de la humanidad,[2]​ por ejemplo, destruyendo la civilización moderna. También había propuesto, ya en 2002, llamar riesgo existencial a un evento que podría causar la extinción de la humanidad o una pérdida permanente del potencial futuro de la humanidad.[3]

Ámbito

[editar]

Entre las posibles catástrofes globales se incluyen no solo el cambio climático, las pandemias y guerras nucleares, sino también los riesgos relacionados con la nanotecnología o una absorción por parte de una inteligencia artificial hostil, y los eventos originados en el espacio tales como los impactos de meteoritos.

Un estudio cuantitativo riguroso de estos riesgos es difícil, debido a la incertidumbre acerca de las consecuencias finales del peligro que desencadena la catástrofe, y la probabilidad de este peligro, y también debido a muchos sesgos cognitivos que complican el análisis. Además, un evento que pueda haber causado la extinción de la humanidad o la destrucción completa de la civilización obviamente nunca ha ocurrido desde que existe la especie, y la probabilidad de que ocurra se minimiza. Este fenómeno se conoce en las estadísticas bajo el nombre de sesgo de selección.

En economía, los eventos con una probabilidad muy baja pero con consecuencias desastrosas para la economía global se llaman riesgos omega. Un riesgo omega es el riesgo de que un evento reduzca el PIB global en más del 50% en una década. Los riesgos omega se caracterizan por dos características clave: el marco temporal y el impacto en la economía. Primero, un evento debe tener el potencial de reducir el PIB global en más del 50%. Segundo, la caída del PIB debe ocurrir dentro de los 10 años desde el impacto hasta el efecto. Por lo tanto, excluimos eventos como crisis demográficas resultantes de bajas tasas de natalidad, aunque puedan llevar a una caída del PIB (la caída no es abrupta). La definición enfatiza las consecuencias económicas y permite una clasificación precisa de los riesgos catastróficos en esta categoría.[4]

Aunque los riesgos de una catástrofe global han sido el tema de muchos escenarios de ciencia ficción (a menudo modernizando mitos muy antiguos como el de Pandora) y de declaraciones alarmistas en los años cincuenta, es solo al principio del siglo XXI que varias organizaciones comenzaron a estudiarlas sistemáticamente, especialmente bajo el impulso de los movimientos transhumanistas.

Clasificaciones

[editar]

Riesgos mayores

[editar]

Un riesgo mayor es un evento incierto cuya realización a menudo no es muy probable, pero cuyos efectos negativos son considerables. Los geógrafos y muchos especialistas después de ellos dividen esta noción en tres términos:

  1. el peligro, que es el evento incierto en sí mismo,
  2. los riesgos, que son los valores socioeconómicos o ecológicos sujetos a los efectos del peligro cuando ocurre, y
  3. la vulnerabilidad, que establece el grado en mayor o menor grado de la destrucción de los logros por estos efectos.[5]

Por ejemplo, en el caso del riesgo de inundación de un río, el peligro es la inundación del curso de agua, los riesgos son las personas y los bienes expuestos a la inundación, y finalmente, la vulnerabilidad se mide en particular teniendo en cuenta la altura, resistencia y estanqueidad de los edificios en cuestión.[6]

Riesgo de catástrofe global y riesgo existencial

[editar]

El filósofo Nick Bostrom introdujo en 2002 la noción de riesgo existencial,[7]​ y en 2008 la noción de riesgo catastrófico global,[8]​ en relación con una clasificación de riesgo según su extensión e intensidad,[9]​ el rango desde la escala individual a todas las generaciones futuras, y la intensidad de "imperceptible" hasta "máximo" (los ejemplos se dan en la tabla a continuación). En esta escala, se define un "riesgo de catástrofe global" como al menos "global" (que afecta a la mayoría de los seres humanos) y de "mayor" intensidad (que afecta el bienestar de las personas durante un período prolongado). Un "riesgo existencial" se define como "transgeneracional" y "máximo" (irreversible y fatal a corto plazo). Por lo tanto, un riesgo existencial destruye a la humanidad (o incluso a todas las formas de vida superior) o al menos no deja ninguna posibilidad de la reaparición de una civilización, mientras que una catástrofe global, incluso si matara a la mayoría de los humanos, dejaría una oportunidad para sobrevivir y reconstruir a los otros. Bostrom considera, por lo tanto, que los riesgos existenciales son mucho más significativos;[10]​ también señala que la humanidad no podría haber considerado un riesgo existencial antes de 1950,[n 1]​ y que todas las estrategias diseñadas para reducir los riesgos de catástrofe global son ineficaces frente a las amenazas de extinción completas.[7]

Independientemente de este trabajo, en Catastrophe: Risk and Response, Richard Posner en 2004 agrupó eventos que trajeron "un completo trastorno o ruina" a escala global (en lugar de local o regional), considerándolos como dignos de atención especial, en términos de análisis de costo-beneficio, porque podrían, directa o indirectamente, poner en peligro la supervivencia de la humanidad en su conjunto.[11]​ Entre los eventos discutidos por Posner se encuentran los impactos cósmicos, el calentamiento global, las plagas grises, el bioterrorismo y los accidentes en los aceleradores de partículas.

Casi por definición, las catástrofes globales no solo son riesgos importantes, sino que representan una vulnerabilidad máxima y problemas tan vastos que son imposibles de cuantificar. Esto resulta en una confusión frecuente entre riesgo y peligro en este caso.

Rango e intensidad de riesgo
riesgo imperceptible soportable mayor máximo
personal Pérdida de un cabello Pérdida de un dedo Amputación de una pierna muerte
local Tráfico lento Cortar carreteras destrucción
de infraestructuras
Terremoto de 1755
en Lisboa
total Calentamiento global Año sin verano Destrucción completa
de la capa de ozono
Invierno nuclear
transgeneracional Pérdida de una
especie de escarabajo
Desaparición de los felinos. Extinción del holoceno Fin de la humanidad
Francis Fukuyama en 2015

Clasificación según los escenarios

[editar]

Bostrom identifica cuatro tipos de escenarios de catástrofes globales. Las "explosiones" son desastres brutales (accidentales o deliberadas); los ejemplos más probables son la guerra nuclear, el uso agresivo (y fuera de control) de la biotecnología o nanotecnología, y los impactos cósmicos. Los colapsos [n 2]​ son escenarios de degradación progresiva de las estructuras sociales en las que la humanidad sobrevive, pero la civilización se destruye irremediablemente, por ejemplo, por el agotamiento de los recursos naturales o por la disminución de las presiones disgénica, bajando la inteligencia media. Los alaridos son escenarios de futuros distópicos, como los regímenes totalitarios que utilizan inteligencias artificiales para controlar la especie humana. Los gemidos son disminuciones graduales en los valores, y después en la civilización.[7]​ Nick Bostrom considera que los últimos tres tipos de escenarios impiden (más o menos definitivamente) que la humanidad se dé cuenta de su potencial. Francis Fukuyama cree que este argumento, que se basa en los valores del transhumanismo, no es suficiente en sí mismo para clasificar a todos como riesgos de catástrofe global.[12]

Extensión de los traps siberianos (mapa en alemán)

Fuentes potenciales de riesgo

[editar]

Entre los riesgos existenciales, es decir, los riesgos de extinción masiva de la biosfera, incluida la especie humana, se encuentran principalmente las causas exógenas naturales, como:

La extinción masiva del Pérmico-Triásico señalada como "Final P" en el gráfico.

Tales fenómenos han ocurrido en muchas ocasiones en el pasado, pero su probabilidad de ocurrencia en la escala histórica es a menudo imposible de evaluar por falta de datos científicos suficientes (las observaciones precisas comenzaron hace tres siglos).

Por otro lado, los riesgos de una catástrofe global con mayor frecuencia corresponden a causas endógenas (debido a acciones humanas):

Con el desarrollo de las tecnologías, la destrucción, si no de la raza humana,[n 3]​ al menos de la civilización moderna por las acciones de una nación, una corporación, una comunidad religiosa o de otro tipo, o incluso una acción individual, es más probable que antes desde un punto de vista estadístico. Sin embargo, es posible que el desarrollo de técnicas de seguridad reduzca estos riesgos, pero sacrificando los derechos humanos y las libertades democráticas.

Algunos escenarios combinan causas naturales y artificiales: una gran tormenta magnética del Sol o una reversión del campo magnético de la Tierra podría bloquear el funcionamiento de los dispositivos electrónicos y las redes que se han vuelto totalmente dependientes de la economía global, dando lugar a una quiebra financiera global y conflictos a gran escala.[13]

Una vista de la banquisa alaskeña. Tal vez así era toda la superficie de la Tierra durante la edad de hielo conocida como Tierra Bola de Nieve.

De acuerdo con el Future of Humanity Institute, las causas antropogénicas amenazan más con causar la extinción de la humanidad que las causas naturales.[9][14]​ De manera similar, el Cambridge Project for Existencial Risk (desarrollado en 2012 por el Centro para el Estudio de Riesgos Existenciales de la Universidad de Cambridge[15]​ ) afirma que las "mayores amenazas" para la especie humana son antropogénicas ; Según él, se trata del calentamiento global, las guerras nucleares, las biotecnologías que han escapado al control y las inteligencias artificiales hostiles.[16]

Las listas más detalladas de riesgos que se incluyen a continuación (algunos de los cuales se correlacionan entre sí, por ejemplo, una crisis sistémica que debilita los servicios de salud aumentará el riesgo de una pandemia) se clasifican según una probabilidad estimada decreciente.[17]​ Esta clasificación, que abarca el trabajo de los diversos grupos de estudio que se mencionan a continuación, no encaja bien con las clasificaciones más tradicionales de los geógrafos, que se basan en particular en la tipología de los problemas (ambientales, económicos, etc.).

Riesgos por acciones humanas.

[editar]

Calentamiento global

[editar]

El calentamiento global actual (que ya no es cuestionado por la comunidad científica, y la mayoría del cual se atribuye a actividades industriales desde el siglo XIX), conduce a variaciones climáticas anormales en toda la Tierra, y a efectos secundarios como el aumento del nivel del mar y su acidificación. Incluso las proyecciones más moderadas de este calentamiento sugieren que aumentará, aumentando en particular la frecuencia y la intensidad de los fenómenos meteorológicos extremos (olas de calor, inundaciones, tormentas, etc.) y los desastres asociados.[18]

Los efectos indirectos incluyen la pérdida de biodiversidad, el daño al sistema de producción agrícola actual, el aumento de la propagación de enfermedades infecciosas como la malaria y la rápida mutación de microorganismos. En 2015, el reloj del fin del mundo avanzó dos minutos para reflejar el hecho de que el Boletín de los científicos atómicos ahora comsidera el cambio climático un riesgo catastrófico global y posiblemente existencial;[19]​ el 26 de enero de 2017, nuevamente se adelantó por treinta segundos considerando los comentarios y los primeros actos de Donald Trump sobre este tema,[20]​ luego avanzó otros treinta segundos el 25 de enero de 2018, debido a la incapacidad de los dirigentes mundiales para hacer frente a las amenazas inminentes de una guerra nuclear y del cambio climático.[21]

Incluso se ha sugerido que exceder un cierto umbral podría hacer que el clima de la Tierra cambie a un estado estable de combustión similar al de Venus (esta es la tesis del embalamiento climático). Escenarios menos extremos, sin hacer la Tierra inhabitable, podrían causar el fin de la civilización.[22]​ Sin embargo, la existencia de climas mucho más cálidos en el pasado relativamente reciente, por ejemplo al comienzo del Eoceno, lleva a muchos expertos a cuestionar que este riesgo sea real.[23][24][25]

Superpoblación y crisis agrarias

[editar]

Un desastre ecológico, como las cosechas catastróficas seguidas por un colapso en los servicios de los ecosistemas, podría resultar de las tendencias actuales de la superpoblación, el crecimiento económico desenfrenado[26]​ y la falta de agricultura sostenible. La mayoría de los escenarios catastróficos involucran uno o más de los siguientes factores: la extinción del Holoceno, la escasez de agua potable (lo que podría llevar a que aproximadamente la mitad de la humanidad tenga solo agua con riesgos para la salud) y el problema de colapso de colonias[27][28]​ —obsérvese, empero, el masivo incremento de población de abejas en años recientes—[29]​ así como la pesca excesiva, la deforestación masiva, la desertificación, el cambio climático o, finalmente, los episodios de contaminación del agua; muchas de estas preocupaciones ya fueron evidentes en el Informe Meadows de 1972.[30]

Graphique montrant trois courbes d'évolution de la population.
3 escenarios de evolución de la población mundial entre 1800 y 2100.[31][32]

Incluso sin una catástrofe repentina (las "explosiones" definidas por Nick Bostrom), los desequilibrios entre la población y los recursos alimenticios pueden conducir progresivamente a una gran crisis, la catástrofe maltusiana (son "colapsos" en la misma clasificación). El siglo XX experimentó un rápido aumento de la población mundial[32]​ debido a los avances en medicina y una gran mejora en la productividad agrícola, particularmente a partir de la Revolución Verde.[33][34]​ Así, entre 1950 y 1984, los cambios globales en la agricultura llevaron a un aumento del 250 % en la producción de cereales. La Revolución Verde permitió que la producción de alimentos siguiera el ritmo del crecimiento de la población e incluso la promoviera. La energía requerida para el trabajo agrícola fue proporcionada por los combustibles fósiles, ya sea para tractores e irrigación (con motores que consumen hidrocarburos), o para la fabricación de fertilizantes y pesticidas. Pero la llegada del pico del petróleo podría provocar una crisis agrícola.[35][36]

En un estudio titulado Food, Land, Population and the U. S. Economy, David Pimentel (profesor de la Universidad de Cornell) y Mario Giampietro (investigador del National Research Institute en Food and Nutrition) creen que la población máxima de EE. UU. para una economía sostenible no puede exceder los 200 millones. El mismo estudio establece que para evitar desastres, la población mundial debería reducirse en dos tercios;[37]​ piensan que las consecuencias de esta crisis agrícola deberían aparecer a partir de 2020 y ser críticas después de 2050.

Dale Allen Pfeiffer teme que en las próximas décadas se produzca un aumento en los precios de los alimentos, seguido de hambrunas masivas como las que el mundo nunca ha visto.[36][38]​ Estos cálculos se superponen con los de la ONG estadounidense Global Footprint Network, que determina el día del rebasamiento (la fecha en la que se consume por completo la producción mundial anual de recursos renovables), y encuentra que desde 1971 (el año en que ocurrió por primera vez), llega cada año antes. En 2018, ocurrió el 1 de agosto,.[39][40]

Desastres ambientales

[editar]
Image satellite du nuage brun d'Asie.
Las partículas de contaminación del aire de la " Nube Marrón Asiática " (la misma superficie que los Estados Unidos) pueden viajar por todo el planeta.

Además de las crisis mencionadas anteriormente, diversos riesgos ecológicos amenazan la producción agrícola. Así, el trigo, el tercer cereal producido después del maíz y el arroz, sigue siendo susceptible a las infecciones por hongos. Ug99, una variedad de óxido negro, puede causar la falla completa de los cultivos de la mayoría de las variedades modernas.[41]​ La infección se propaga por el viento y no se conoce ningún tratamiento; Si contamina las principales regiones de producción (Estados Unidos, Europa, Rusia y el norte de China), la crisis resultante provocará un alza de los precios, pero también la escasez de otros productos alimenticios.[42]

Al igual que con otros escenarios de desastre, los desplazamientos masivos de población o incluso las guerras deben ser temidos. Por otro lado, a pesar de los debates sobre la introducción de plantas modificadas genéticamente, los riesgos de que esta introducción cause un desastre ecológico global (por ejemplo, la aparición de insectos resistentes a todos los pesticidas o malezas invasivas) parecen insignificantes.[43]

Carte du Pacifique nord, montrant les courants et les accumulations de déchets.
La acumulación de residuos plásticos en el Pacífico Norte.

La mayoría de las otras catástrofes ambientales previsibles ( derrames de petróleo, contaminación industrial e incluso accidentes nucleares ) permanecen localizadas. Sin embargo, la nube marrón de Asia podría tener consecuencias climáticas en todo el mundo.[44]​ Del mismo modo, la contaminación del océano parece ser global.

Finalmente, las muertes por contaminación del aire alcanzan un nivel alarmante y causan un déficit económico anual de cientos de miles de millones de dólares, según el Banco Mundial.[45]​ No está claro, sin embargo, que esto sea una catástrofe global en el sentido de Nick Bostrom, ya que muchas regiones tienen los medios para combatir esta contaminación a nivel local.

Todas las amenazas descritas en las secciones anteriores, consideradas como una crisis global, han sido objeto de varios intentos de advertencia. El 13 de noviembre de 2017, la revista BioScience y el periódico Le Monde publican un manifiesto firmado por 15 364 científicos de 184 países, señalando que desde el llamamiento World Scientists' Warning to Humanity lanzado en 1992 por la Unión de Científicos Preocupados y más de 1.700 científicos independientes, incluida la mayoría de los ganadores de los premios Nobel de la ciencia de entonces:

"No sólo la humanidad ha fallado en hacer progresos suficientes para abordar estos desafíos medioambientales anunciados, pero es muy preocupante ver que la mayoría de ellos han empeorado considerablemente". Y concluyen:

"Para evitar la miseria generalizada y una pérdida catastrófica de la biodiversidad, la humanidad debe adoptar una alternativa más sostenible ambientalmente que la práctica que hoy es propia".[46][47][48]

Guerras y destrucción masiva

[editar]
Le champignon atomique de Castle Bravo.
Castillo Bravo, con una potencia de 15 Mt, explotando sobre Bikini en 1954.

El escenario que más se ha estudiado es el de una guerra nuclear. Aunque la probabilidad anual de tal guerra es baja, Martin Hellman señaló en 1985 que si esta probabilidad permanece constante o no disminuye lo suficientemente rápido, la guerra es inevitable a largo plazo e inevitablemente llegará el día en que se agotará la suerte de la civilización.[49]​ Durante la crisis de los misiles en Cuba, Kennedy estimó las posibilidades de una guerra nuclear "entre una sobre tres y una sobre dos".[50]

En 2015, los Estados Unidos y Rusia tienen un arsenal combinado de 14 700 armas nucleares[51]​ y, teniendo en cuenta otras potencias nucleares, existen 15 700 armas nucleares en el mundo,[51]​ un poder destructivo total de aproximadamente 5.000 megatones (Mt), 250 000 veces más que la bomba de Hiroshima, que es solo una fracción del arsenal de la Guerra Fría. Sin embargo, estas cifras explican las estimaciones pesimistas simbolizados por el Reloj del Apocalipsis, que fue avanzado en 2018 para reflejar la preocupación por la incapacidad de los dirigentes mundiales para hacer frente a las amenazas inminentes de una guerra nuclear.[20][21]

Zone de destruction complète de la Tsar Bomba placée sur une carte de la région parisienne.
Efecto asumido de la Bomba del Zar (la bomba H más grande jamás probada, con una potencia de 57 Mt ) en la región de París: el círculo rojo (radio: 35 km) corresponde a la zona de destrucción completa.

El público en general a menudo identificó la guerra nuclear con el " fin del mundo ", pero hasta principios de la década de 1980, los líderes y los expertos consideraron que había un pequeño riesgo de extinción completa de la humanidad como resultado de tal guerra: en una famosa declaración de 1957, Mao Zedong explicó que no tenía miedo de una guerra nuclear, a la cual "muchos chinos sobrevivirían";[52]​ en 1982, Brian Martin estimó que un intercambio de bombas entre los Estados Unidos y la URSS podría matar directamente de 400 a 450 millones de personas, y tal vez unos cientos de millones más de personas debido a las consecuencias, especialmente en el hemisferio norte, "apenas un poco más del 10 % de la humanidad".[53]​ Sin embargo, a partir de 1983, los escenarios más pesimistas, teniendo en cuenta la noción de invierno nuclear,[54][55]​ llevaron al miedo, al menos, a una destrucción completa de la civilización en este caso, debido en particular a la imposibilidad de la agricultura por varios años.[55][56][57]

Las armas del Apocalipsis son una forma definitiva del concepto de disuasión nuclear. Estas son armas suicidas que garantizan que un agresor hipotético perezca con el atacante (y con el resto de la humanidad). Son técnicamente factibles (por ejemplo, en forma de gigantescas bombas H de solución salina de cobalto), pero el concepto se abandonó a principios de la década de 1960 (esencialmente porque, por su propia naturaleza, eran una espada de Damocles para su propietario)[58]​ y ya no forman parte de los riesgos existenciales seriamente considerados.

Otros tipos de armas y conflictos pueden llevar a riesgos catastróficos globales, en particular el uso de armas de destrucción masiva ( químicas y biológicas ), pero también ciertas formas de bioterrorismo (porque es probable que desencadenen pandemias incontrolables).[59]

Conatos de pánico bancario en Inglaterra: colas de clientes frente a las oficinas del Northern Rock para sacar los ahorros.

Riesgos sistémicos

[editar]
Fulguración solar

Aunque las crisis financieras, como la Gran Depresión, a menudo tuvieron un carácter global en el pasado, hasta ahora no podemos hablar del riesgo catastrófico global en sentido estricto. Pero la aceleración de las comunicaciones y el uso masivo de Internet ahora hacen posible dos tipos de colapso: por un lado, una desestabilización de los mecanismos financieros, provocada, por ejemplo, por una amplificación de las fluctuaciones del mercado de valores que escapan a cualquier control (riesgo asociado a las transacciones de alta frecuencia durante el desplome repentino de 2010), o por una crisis de confianza similar a la crisis de las hipotecas subprime, por otra parte, una pérdida física de información o de valores, relacionada con una ruptura de Internet.

El primer riesgo es difícil de medir (y, en particular, mal asegurable). Sin embargo, Internet ha sido diseñado para resistir la mayoría de los posibles ataques o fallas de funcionamiento, y es que a principios del siglo XXI, se observó que una llamarada solar lo suficientemente potente, como la de 1859, como para interrumpir suficientemente comunicaciones y la electrónica para reenviar la civilización al siglo XVIII.[60]

De manera más general, la globalización y la interconexión de los diversos sistemas hacen que a partir de ahora una crisis local o sobre un solo recurso pueda, por efecto dominó, provocar una catástrofe global (se trata de "colapsos" ( crisis ) en el sentido de Nick Bostrom). La más conocida de estas crisis es la llegada del pico del petróleo (y, en particular, sus consecuencias para la agricultura),[35][36]​ pero se anticipa durante varias décadas, y serían solo efectos indirectos inesperados lo que podría convertirlo en un colapso global.

Otros escenarios de crisis sistémicas de este tipo han sido menos estudiados y podrían tener consecuencias difíciles de reparar. Podemos mencionar la " crisis del agua ", que podría llevar a una guerra entre China, India y Pakistán (tres potencias nucleares) para el control de los recursos hídricos del Himalaya,[61][62]​ o la escasez de tierras raras, a priori de poca importancia, pero que puede provocar tensiones en la producción de productos tan diversos como bombillas de bajo consumo, automóviles eléctricos o turbinas eólicas, con importantes consecuencias para la transición energética.[63]

Hacia 1990, Joseph Tainter desarrolló análisis más generales de estos escenarios; en su trabajo más conocido, El colapso de las sociedades complejas,[64]​ donde estudia el colapso de la civilización maya, la civilización Anasazi[65]​ y el Imperio Romano, en términos de la teoría de redes, economía de la energía y teoría de la complejidad. Aunque estas crisis son el resultado de una serie de desastres locales, no inevitables y en las que podemos esperar encontrar caídas más o menos rápidas, Victor Clube y Bill Napier señalaron que los escenarios de desastres sistémicos brutales (los "shocks") provocados por los accidentes locales también son posibles, y dejan solo un pequeño margen de maniobra antes de convertirse en globales.

Inteligencia artificial

[editar]
Un algoritmo evolutivo utiliza operadores de selección iterativa (en azul) y variación (en amarillo). i: inicialización, f (X): evaluación,? : criterio de parada, Se: selección, Cr: cruce, Mu: mutación, Re: reemplazo, X *: óptimo.

En 1993, Vernor Vinge popularizó, bajo el nombre de singularidad tecnológica, la idea de que si el hombre logra construir una inteligencia artificial (IA) superior a él, esta podrá construir otra aún más alta. Esta retroalimentación positiva nos llevaría rápidamente a una superinteligencia inconcebible para nosotros.[66]​ Vinge señala que esto podría ser peligroso para los humanos.[67]​ Esta idea da nacimiento a un movimiento social, el singularitarismo.

Más específicamente, se ha sugerido que las computadoras capaces de aprender podrían convertirse rápidamente en superinteligentes y emprender acciones no planificadas por su programación, incluso hostiles; o que los robots puedan competir con la humanidad.[68]​ También es posible que la primera superinteligencia aparente elimine a todas las demás, pudiendo también manipular cualquier inteligencia inferior para lograr sus objetivos.[69]Nick Bostrom llama a esta pregunta el "problema del control".[70]

Stephen Hawking, Bill Gates y Elon Musk han expresado temores de que se hayan desarrollado inteligencias artificiales hasta el punto de estar fuera de control, Hawking agregó que esto podría significar "el fin de la humanidad".[71]​ Los expertos participaron en una conferencia en 2009 organizada por la Asociación para el Avance de la Inteligencia Artificial para discutir la posibilidad de que las computadoras y los robots obtengan algún tipo de autonomía y la amenaza que esta eventualidad podría presentar. Además del hecho de que algunos robots han adquirido varias formas de semi-autonomía, que van desde buscar tomas para recargarse hasta la elección de objetivos para atacar, señalan que algunos virus informáticos pueden luchar activamente contra su eliminación y alcanzar "el nivel de inteligencia de las cucarachas". Estos expertos agregan que si una apariencia de conciencia como la que a menudo representa la ciencia ficción es poco probable, no se excluyen otros problemas o peligros.[66]

Más recientemente, varios grupos científicos han observado una aceleración de los avances en inteligencia artificial (incluida la victoria de AlphaGo contra Lee Sedol en marzo de 2016, que se ha convertido en uno de los signos más visibles) que podrían generar nuevas preocupaciones.[72][73][74]Eliezer Yudkowsky piensa que los riesgos creados por la inteligencia artificial son más impredecibles que todos los otros tipos de riesgos y agrega que la investigación sobre este tema está sesgada por el antropomorfismo. En las personas que basan su análisis de la inteligencia artificial en su propia inteligencia, esto les lleva a subestimar las posibilidades de la IA. Además, separa los riesgos en problemas técnicos (algoritmos imperfectos o defectuosos que impiden que la IA logre sus objetivos), y fallos "filosóficos", que son mucho más perniciosos y difíciles de controlar, donde los objetivos de la IA son realmente perjudiciales para la humanidad.[75]​ Nick Bostrom se unió a esta posición publicando en 2014 Superinteligencia: caminos, peligros, estrategias,[76]​ así como Stuart Russell en con su libro Human Compatible: AI and the Problem of Control de 2019. Stuart es uno de los mayores expertos en inteligencia artificial, habiendo escrito junto con Peter Norvig el libro de texto más popular en el campo: Artificial Intelligence: A Modern Approach, utilizado en más de 1.500 universidades de 135 países.[77]

Biotecnología

[editar]
Pictogramme triangulaire, formé de cercles noirs sur fond jaune, ayant l'aspect de pinces.
Señal de advertencia de peligro biológico.

La biotecnología puede crear un riesgo de catástrofe global al desarrollar agentes infecciosos naturales o artificiales, que luego podrían propagarse mediante el uso de armas biológicas, ataques terroristas o por accidente,[78]​ lo que podría causar pandemias.

Se observa un crecimiento exponencial en el sector biotecnológico. Noun y Chyba predicen que esto llevará a una gran mejora en estas técnicas en las próximas décadas.[78]​ Creen que los riesgos correspondientes de la guerra biológica y el bioterrorismo son mayores que los de las armas nucleares o químicas, porque los agentes infecciosos son más fáciles de producir y su producción en masa es difícil de controlar, y las capacidades tecnológicas correspondientes se vuelven accesibles. incluso a individuos aislados.[78]​ Hasta ahora, los usos terroristas de la biotecnología han sido raros, pero no está claro si esto se debe a la falta de recursos o la falta de motivación.[78]

El principal riesgo esperado en el futuro es la aparición de agentes infecciosos genéticamente modificados o totalmente artificiales.[78]​ En general, se cree que la virulencia de los agentes infecciosos naturales, que han evolucionado conjuntamente con sus hospedadores, está limitada por la necesidad de que los hospedadores sobrevivan lo suficiente para transmitir el agente,[79]​ pero es posible modificar genéticamente estos agentes, (voluntaria o accidentalmente) para cambiar su virulencia y otras características.[78]​ Por ejemplo, un grupo de investigadores australianos modificó involuntariamente las características del virus de la viruela del ratón al tratar de desarrollar un virus que esterilizaría a los roedores.[78]​ El virus modificado se ha vuelto extremadamente letal incluso en ratones vacunados o naturalmente resistentes.[80][81][82]​ Si no están estrictamente reguladas, las tecnologías que permiten la manipulación genética de las características de los virus pueden estar disponibles en el futuro.[78]

Noun y Chyba proponen tres categorías de medidas para reducir los riesgos de pandemias (naturales o artificiales): regulación o prohibición de investigaciones potencialmente peligrosas, mejora de la vigilancia de la salud y desarrollo de medios para combatir la propagación de epidemias (por ejemplo, mediante la producción de vacunas más eficaces y su distribución más amplia).[78]

Nanotecnología

[editar]

Muchas nanotecnologías están en desarrollo o ya se utilizan.[83]​ La única que parece representar un riesgo significativo de catástrofe global es el ensamblaje molecular, una técnica que permitiría construir estructuras complejas con precisión atómica.[84]​ El ensamblaje molecular es por el momento un concepto puramente teórico que requiere avances significativos en nanotecnología, pero que podría permitir producir objetos sofisticados en grandes cantidades y a bajo costo en nanofábricas del tamaño de impresoras 3D ( que son una versión gruesa y macroscópica del mismo concepto).[83][84]​ Cuando estas nanofábricas pueden producir otras, la producción puede estar limitada solo por la cantidad de recursos relativamente abundantes, como materias primas, energía y software. Así podrían, entre otras cosas, fabricar a un precio bajo armas sofisticadas, autónomas y duraderas.[83]

Chris Phoenix clasifica los riesgos de catastróficos creados por la nanotecnología en tres categorías:[85]

  1. Acelerar el desarrollo de otras tecnologías, como la inteligencia artificial o la biotecnología.
  2. Producción en masa de objetos potencialmente peligrosos, creando una dinámica de riesgo, como la carrera de armamentos.
  3. Creación de procesos de reproducción sin freno, con efectos destructivos.

Sin embargo, también señala que es probable que las nanotecnologías reduzcan muchos otros riesgos catastróficos globales.[83]

Varios investigadores dicen que la mayoría de estos riesgos provienen del potencial militar y la carrera de armamentos.[80][83][86]​ Se han sugerido varias razones por las cuales estas técnicas podrían conducir a una escalada inestable (a diferencia de, por ejemplo, las armas nucleares):

  1. Un gran número de actores pueden verse tentados a participar en la escalada, siendo el costo correspondiente bajo;[83]
  2. La fabricación de armas por este método es barata y fácil de camuflar;[83]
  3. La dificultad de controlar las intenciones de los otros actores empuja a armarse con prudencia y desencadenar ataques preventivos;[83][87]
  4. El ensamblaje molecular disminuye la dependencia del comercio internacional,[83]​ que es un factor de paz;
  5. Una guerra de agresión se vuelve económicamente más interesante para el agresor, ya que la fabricación de armas es barata y los humanos menos necesarios en el campo de batalla.[83]

La autorregulación de todos los actores, ya sean estatales o no, parece difícil de lograr,[88]​ las medidas para limitar los riesgos de armamento y guerra se propusieron principalmente en el marco del multilateralismo.[83][89]​ Se debe desarrollar una infraestructura internacional, tal vez análoga a la Agencia Internacional de Energía Atómica y dedicada específicamente a las nanotecnologías, que otorgue más poder al nivel supranacional.[89]​ También es posible fomentar el desarrollo tecnológico diferencial, favoreciendo las tecnologías defensivas.[83][90]

Otras catástrofes globales debidas a las nanotecnologías son concebibles. Así, en 1986, en su libro Engines of Creation,[91]Eric Drexler consideró la noción de plaga gris, un tema a menudo tratado por los medios y la ciencia ficción.[92][93]​ Este escenario involucra pequeños robots autorreplicantes que destruirían toda la biosfera al utilizarla como fuente de energía y materiales. Sin embargo, ahora los expertos en este campo (incluido Drexler) han desacreditado este escenario; Según Chris Phoenix una plaga gris no podría ser más que el resultado de un proceso delicado y deliberado, y no de un accidente.[94]

Accidentes relacionados con una tecnología experimental

[editar]

La biotecnología podría conducir al desarrollo de pandemias incurables, las guerras químicas conducen a una contaminación irremediable, las nanotecnologías producen plagas grises catastróficas. De manera más general, Nick Bostrom sugirió que cada nueva tecnología puede revelar el riesgo impensable antes, y que en su búsqueda del conocimiento, la humanidad podría crear aún inadvertidamente alguna capaz de destruir el sistema de la Tierra, e incluso el sistema solar,[95]​ en concreto la investigación en física de partículas puede crear condiciones excepcionales con consecuencias catastróficas.

Ya, a algunos científicos les preocupaba que la primera prueba nuclear pudiera incendiar la atmósfera[96]​,[97]​ y más recientemente, ha habido especulaciones alarmistas sobre la posible producción de micro agujeros negros,[98]strangelets u otros estados físicos anormales en el Gran colisionador de hadrones, y considerando una reacción en cadena que podría llevar al desastre. Estos temores particulares obviamente no se materializaron, y ya se habían refutado mediante el cálculo,[99][100][101][102]​ pero cada nuevo avance tecnológico puede dar lugar a temores similares.[n 4]

Riesgos no antropogénicos

[editar]

Los riesgos descritos en esta sección corresponden a riesgos independientes de acciones humanas. La mayoría, con la excepción principalmente de las pandemias, también están escasamente mitigados por posibles medidas preventivas. Su probabilidad anual, comparada con la de los riesgos de origen humano, es, sin embargo, muy a menudo estimada como insignificante.[14]

Pandemia global

[editar]

La mortalidad pandémica es igual a la virulencia del agente infeccioso multiplicada por el número total de personas infectadas. En general, se supone que existe un límite a la virulencia de los agentes infecciosos que han evolucionado conjuntamente con sus anfitriones,[79]​ porque un agente que mata a su huésped con demasiada rapidez no tendrá tiempo para propagarse.[103]​ Este modelo simple predice que si no existe un vínculo entre la virulencia y el modo de transmisión, los agentes infecciosos evolucionarán hacia formas menos virulentas y de rápida propagación. Sin embargo, esta hipótesis no siempre se verifica, y cuando existe una relación entre la virulencia y la transmisión, por ejemplo, debido a que la descomposición del cadáver libera el agente infeccioso, pueden aparecer niveles altos de virulencia,[104]​ limitados solo por otros factores, como las interacciones entre diferentes hospedadores (pulgas, ratas y humanos en el caso de plaga, por ejemplo).[79][105]​ Además, si la pandemia es un fenómeno secundario relacionado con una zoonosis, la virulencia en los seres humanos puede ser total.[106]​ Muchas pandemias históricas han tenido un efecto devastador en grandes poblaciones, la más conocida es la Peste Negra (entre 1347 y 1352) y la gripe de 1918; esto implica que una pandemia global podría representar una amenaza realista para la civilización.

La vigilancia de la salud actual hace que la probabilidad de una pandemia de este tipo sea bastante baja, al menos para los agentes infecciosos similares a los conocidos (y en particular no modificados por el uso de biotecnologías). Sin embargo, la posibilidad de que aparezca un nuevo agente patógeno (como en el caso de enfermedades emergentes), o de que una mutación haga que un virus como la gripe sea mucho más virulento, nunca se puede descartar. Un debilitamiento de los servicios de salud vinculados, por ejemplo, a una crisis económica también podría hacer que esta catástrofe mundial sea mucho más importante.

Sin estar directamente relacionados con las pandemias, la aparición de superbacterias resistentes a todos los antibióticos plantea nuevas amenazas de crisis para la salud.[107][108]​ Por otro lado, las enfermedades como la obesidad o las alergias, aunque no son contagiosas, se describen metafóricamente como pandemias ,[109][110]​ y si se expandieran, podrían terminar ejerciendo presiones disgénicas significativas a escala global.[111]

Cambio climático

[editar]

El cambio climático es un cambio duradero en los climas globales. En un pasado relativamente reciente (geológicamente), la Tierra ha experimentado climas que van desde los períodos glaciales hasta episodios tan calientes como para crecer palmeras en la Antártida. Se supone además que los episodios de la llamada Glaciación global terrestre, donde todos los océanos estaban cubiertos de hielo, tuvieron lugar en un pasado mucho más remoto. Los cambios climáticos repentinos (en unas pocas décadas) se han producido a escala regional, por ejemplo durante la Pequeña Edad de Hielo o durante el óptimo climático medieval, pero el cambio climático global se ha producido lentamente, al menos desde principios del Cenozoico y el clima se ha vuelto aún más estable desde el final de la última era glacial hace diez mil años. Dado que la civilización (y en particular la agricultura) se ha desarrollado durante un período de climas estables, una variación natural hacia un nuevo régimen climático (más cálido o más frío) podría constituir un riesgo de catástrofe global.[112]

El período actual (el Holoceno) se considera un episodio interglacial en medio de una oscilación bastante regular entre glaciaciones y deglaciaciones, de un período de aproximadamente 50 000 años, que se explica por la teoría astronómica de los paleoclimas. Una nueva glaciación sería sin duda un desastre global en el sentido de Bostrom, pero además el modelo no la predice para los próximos milenios. La intervención del calentamiento global probablemente cambiará la evolución de los climas, incluso puede llevar a la aparición de regímenes muy diferentes de los que la Tierra ha conocido en el pasado.[22]

Vulcanismo

[editar]
Carte des États-unis montrant l'étendue de la couche de cendres
Extensión de la capa de ceniza depositada después de la última erupción de la caldera de Yellowstone (hace 640 000 años).

La erupción de un volcán[113]​,[114]​ puede llevar a un invierno volcánico similar a un invierno nuclear, a través de una gran emisión de aerosoles que reduzcan la cantidad de luz solar que incide sobre la superficie terrestre. Un evento de este tipo, la erupción de Toba,[115]​ ocurrió en Indonesia hace aproximadamente 71 500 años. Según la teoría del desastre de Toba,[116]​ esta erupción podría haber reducido las poblaciones humanas a decenas de miles de personas.

La Caldera de Yellowstone es otro de estos supervolcanes, ya que ha experimentado al menos 142 erupciones formadoras de caldera en los últimos 17 millones de años, incluida una docena de supererupciones.[117]​ En la última de estas erupciones, hace 640 000 años, las cenizas expulsadas cubrieron todos los Estados Unidos al oeste del Mississippi, así como el noroeste de México.[117]

Este tipo de erupción tiene consecuencias importantes en el clima global, que puede llegar a provocar una glaciación si el sol permanece oculto por las cenizas, o por el contrario, un calentamiento global si son los gases de efecto invernadero los que prevalecen. En una escala menor, esto ocurrió en 1816 después de la erupción de Tambora, lo que resultó en un " año sin verano ".

Aunque no están sujetas al mismo mecanismo, las erupciones que dieron origen a las provincias magmáticas probablemente estén acompañadas (durante decenas o incluso cientos de miles de años) de emisiones de gas y polvo en una cantidad comparable a la de los supervolcanes. Siguen siendo mucho más raras (la más reciente, la del grupo basáltico de Columbia, que ocurrió hace unos quince millones de años), y en general se las considera responsables de las extinciones masivas más importantes, la extinción de los Pérmicos. Por ejemplo, la del Triásico se correlaciona con la formación de los traps siberianos. Esto es claramente un riesgo existencial, pero probablemente nos avisaría con milenios de anticipación.

Otros peligros geológicos

[editar]

El campo magnético de la Tierra se ha invertido muchas veces durante su historia, dejando huellas particulares en las rocas del fondo del océano, permitiendo datar la fecha de estas inversiones. Actualmente son infrecuentes, ocurriendo la última hace 780 000 años. En el momento de la transición, el campo se debilita considerablemente, permitiendo que la radiación ( viento solar, erupciones solares, rayos cósmicos ) alcancen el suelo, poniendo en peligro la civilización al aumentar los cánceres, las mutaciones, etc. Estas teorías siguen siendo, sin embargo, actualmente desacreditadas parcialmente ya que el análisis estadístico no muestra correlación entre estas inversiones y las extinciones en masa.[118][119]

Dessin de la vague provoquée par la chute d'un énorme objet.
Representación artística de un impacto meteorítico de escala global, causando un megatsunami.

Otro riesgo de desastre global es un megatsunami, una ola gigante que podría ser causada, por ejemplo, por el colapso de una isla volcánica. La probabilidad de este tipo de evento ha sido muy exagerada por los medios de comunicación[120]​ y estos escenarios solo corresponden a catástrofes regionales. Sin embargo, un impacto cósmico que ocurra en el océano (como el correspondiente a la extinción de los dinosaurios) podría causar que un megatsunami que arrastre continentes enteros.[cita requerida]

Impacto cósmico

[editar]
Vue d'avion du cratère
Meteor Barringer, un cráter de impacto de hace 50 000 años.

Varios asteroides han chocado con la Tierra durante su historia. El asteroide de Chicxulub, por ejemplo, es la causa más probable de la extinción de los dinosaurios no aviares hace 66 millones de años, al final del Cretácico.[121]​ Un objeto de más de un kilómetro de diámetro que golpee la Tierra probablemente destruiría la civilización y, a partir de tres kilómetros, tendría una buena posibilidad de provocar la extinción de la humanidad.[122]​ Se estima que estos impactos ocurren en promedio una vez por cada 500 000 años (los impactos de objetos grandes, que exceden los 10 kilómetros, son aproximadamente 100 veces menos frecuentes).[122]​ El escenario de una colisión combina varias de las catástrofes globales vistas anteriormente: invierno de impacto, desencadenamiento de erupciones volcánicas y megatsunami (si el impacto tiene lugar en el océano), pero también terremotos, tormentas de fuego, etc.[123]

Otras amenazas cósmicas

[editar]
Filaments et flammes rouges.
Erupción solar, con eyecciones en largos filamentos que exceden la distancia Tierra-Luna.

Aparte de los impactos de asteroides y posiblemente las erupciones solares excepcionales, otras amenazas identificables generalmente corresponden a escenarios a muy largo plazo, o muy poca plausibilidad y no es posible en el futuro previsible protegerse de ellas. Por lo tanto, el Sol pasará inevitablemente a través de una fase de expansión (transformándolo en un gigante rojo que posiblemente abarcará la órbita de la Tierra) en aproximadamente 7 mil millones de años.[124]​ De manera similar, las simulaciones de movimientos planetarios a largo plazo muestran que una colisión entre Mercurio y la Tierra (un riesgo existencial para cualquier forma de vida) tiene una probabilidad no insignificante de ocurrir dentro de unos pocos miles de millones de años.[125]

Jets lumineux de part et d'autre d'un astre.
Estallido de rayos gamma (visión del artista).

Muchos eventos de alta energía, como los estallidos de rayos gamma,[126]supernovas e hipernovas, plantearían riesgos existenciales si ocurrieran a unos pocos cientos de años luz de la Tierra (una hipernova podría ser la causa de la extinción del ordovícico-siluriano[127]​). Sin embargo, se estima que la probabilidad de tal ocurrencia es muy baja.[128]

Des colonnes de poussière cosmique
Una famosa nebulosa oscura: Los pilares de la creación.

Otros riesgos, como el paso del sistema solar a través de una nebulosa oscura o una nube de polvo cósmico (que podría provocar un cambio climático significativo), o el acercamiento de otra estrella a menos de un año luz del sol, también se estima que tienen una probabilidad insignificante durante los próximos milenios.[129]

Vida extraterrestre

[editar]

Desde La guerra de los mundos, la vida extraterrestre y sus interacciones con la especie humana son temas recurrentes de la ciencia ficción. Sin embargo, aunque científicos como Carl Sagan creen que su existencia (pero no necesariamente la existencia de inteligencia alienígena) es muy probable, las distancias interestelares son tales que una interacción con la humanidad parece poco probable. El único riesgo que puede considerarse razonablemente es el de la contaminación accidental (por ejemplo, por las bacterias de Marte), e incluso este escenario se considera muy poco realista.[130]

Estimación de la probabilidad de riesgo

[editar]

Algunos peligros que no dependen de acciones humanas tienen una probabilidad que puede calcularse con precisión. Por lo tanto, la probabilidad de que la humanidad desaparezca durante el próximo siglo debido a un impacto cósmico sería una posibilidad entre un millón[131]​ (aunque algunos científicos dicen que el riesgo podría ser mucho mayor ,[132][133]​ ). De manera similar, la frecuencia de erupciones volcánicas de magnitud suficiente para crear una catástrofe climática, similar a la resultante de la explosión de Toba (que podría haber causado la casi extinción de la humanidad[134]​ ) se estima en una por cada 50 000 años.[113]

El peligro relativo que representan otras amenazas es mucho más difícil de estimar. En 2008, en la Conferencia de la Universidad de Oxford sobre riesgos catastróficos globales, un grupo de expertos reputados que reunieron su experiencia en diferentes tipos de riesgo sugirieron un 19 % de probabilidad de extinción de la especie. en el próximo siglo (sin embargo, el informe de la conferencia advierte que el método utilizado para sintetizar las respuestas dadas no tiene en cuenta correctamente la falta de respuestas a ciertas preguntas[17]​). El informe anual de 2016 de la Global Challenges Foundation señala que incluso las estimaciones más optimistas implican que el estadounidense promedio tiene cinco veces más probabilidades de morir en una catástrofe global que en un accidente automovilístico.[135][136]

La estimación precisa de estos riesgos presenta considerables dificultades metodológicas. La mayor atención se ha prestado a los riesgos durante los próximos cien años, pero los pronósticos de este tiempo son difíciles. Si las amenazas planteadas por la naturaleza son relativamente constantes (aunque pueden descubrirse nuevos riesgos), es probable que las amenazas antropogénicas cambien dramáticamente con el desarrollo de nuevas tecnologías. La capacidad de los expertos para predecir el futuro en tales escalas de tiempo en el pasado ha demostrado ser bastante limitada. Además, además de los aspectos tecnológicos de estas nuevas amenazas, el análisis de su impacto en la sociedad y su capacidad para defenderla está limitado por las dificultades metodológicas de las ciencias sociales y la velocidad con la que las relaciones internacionales pueden cambiar.[135]

Los riesgos existenciales plantean otros problemas de estimación, debido a un importante sesgo de selección, el principio antrópico. A diferencia de la mayoría de las otras catástrofes, el hecho de que nunca se haya producido una extinción masiva en relación con la humanidad en el pasado no da información sobre la probabilidad de que ocurra tal evento en el futuro, porque, por definición, una extinción no deja ningún observador (humano), y así, aunque la catástrofe que constituye un riesgo existencial era muy probable, el hecho de que la humanidad sobreviviera solo significaría que tuvo mucha suerte.[137]​ Sin embargo, sigue siendo posible estimar estos riesgos utilizando eventos similares que han dejado su huella, como los cinco episodios de extinción principales que precedieron a la aparición de los humanos; a veces también es posible calcular los efectos de una catástrofe tecnológica en particular, por ejemplo, un invierno nuclear.[9]

Paradoja de Fermi

[editar]

En 1950, el genial físico italiano Enrico Fermi se preguntó por qué la humanidad todavía no se había encontrado con civilizaciones extraterrestres. Su pregunta era, "¿dónde están todos?[138]​ Dada la edad del universo y su gran número de estrellas, la vida extraterrestre debe ser trivial, a menos que la Tierra sea muy atípica. Es esta la peculiaridad que se conoce como paradoja de Fermi.

Aunque no sea ampliamente aceptada, una explicación de la paradoja es la noción de riesgo existencial; más específicamente, la idea de que las civilizaciones que deberíamos estar observado (o quién nos pudo haber visitado) se destruyen antes de que apareciera la humanidad.[137][139]

Importancia económica y ética de los riesgos existenciales

[editar]

La reducción de los riesgos existenciales beneficia principalmente a las generaciones futuras. Según la estimación de su número, se puede considerar que una ligera disminución del riesgo tiene un gran valor moral. Derek Parfit dice que nuestros descendientes podrían sobrevivir otros cinco mil millones de años, hasta que la expansión del Sol haga que la Tierra sea inhabitable.[140][141]Nick Bostrom incluso piensa que la colonización del espacio permitiría que un número astronómico de personas sobreviviera durante cientos de miles de millones de años.[10]​ Es la comparación entre la población actual y esta gran cantidad de potenciales descendientes destruidos por la extinción lo que justifica que se haga todo lo posible para reducir los riesgos.

Estas posiciones no han sido muy disputadas, aunque desde un punto de vista económico, se debe tener en cuenta que el valor de un bien actual es más importante que el valor del mismo bien si solo se puede disfrutar en el futuro. El modelo más utilizado, el de descuento exponencial, podría hacer que estos beneficios futuros sean mucho menos significativos. Sin embargo, Jason Gaverick Matheny afirmó que este modelo es irrelevante para determinar el valor de la reducción de riesgos existenciales.[131]

Algunos economistas han tratado de estimar la importancia de los riesgos de catástrofe global (pero no los riesgos existenciales). Martin Weitzman sostiene que la expectativa (en el sentido estadístico) del costo económico del cambio climático es significativa debido a situaciones en las que los modelos afectan una probabilidad baja pero causan daños catastróficos.[142]​ En general, Richard Posner piensa que hacemos muy poco para mitigar los riesgos de catástrofes globales cuando son débiles y difíciles de estimar.[11]

Además de los sesgos cognitivos que se analizan en la siguiente sección, también hay razones económicas por las que se hacen pocos esfuerzos para reducir los riesgos existenciales e incluso algunos riesgos de catástrofes globales no irreparables. Estos riesgos se refieren a un bien global, es decir que incluso si una gran potencia los reduce, beneficiará solo una pequeña parte de la ganancia correspondiente; además, la mayoría de estos beneficios serán recaudados por las generaciones futuras, quienes obviamente no tienen forma de pagar un seguro contra estos riesgos para las generaciones actuales.[9]

Percepción de riesgos

[editar]
Tableau représentant quatre cavaliers sépulcraux dans un décor désolé.
Los cuatro jinetes del Apocalipsis en una pintura de Viktor Vasnetsov de 1887 (de izquierda a derecha, Peste, Hambre, Guerra y Conquista).

De acuerdo con Eliezer Yudkowsky, muchos sesgos cognitivos pueden influir en cómo los individuos y los grupos perciben la importancia de los riesgos catastróficos globales, incluida la insensibilidad al alcance, la heurística de disponibilidad, el sesgo de representatividad, la heurística de la afectividad, y el efecto de exceso de confianza.[143]​ Por lo tanto, la falta de sensibilidad en la medida hace que las personas a menudo estén más preocupadas por las amenazas individuales que las dirigidas a grupos más grandes[143]​ (por lo que sus donaciones por causas altruistas no son proporcionales a la magnitud del problema[144]​); es por eso que no consideran la extinción de la humanidad como un problema tan serio como debería ser. De manera similar, el sesgo de representatividad los lleva a minimizar las catástrofes que tienen poco que ver con los que han llegado a conocer, y a asumir que el daño que causarán no será mucho más serio.[143]

A menudo se ha señalado[145]​ que la mayoría de los riesgos antropogénicos mencionados anteriormente corresponden a mitos que a menudo son muy antiguos, los de Prometeo, Pandora y, más recientemente, el del aprendiz de brujo que es el más representativo. El simbolismo de los cuatro jinetes del Apocalipsis, los últimos tres que representan la Guerra, el Hambre y la Peste, ya está en el Antiguo Testamento en la forma de la incómoda elección ofrecida por Dios al rey David.[146]​ Los diversos riesgos de revuelta de las máquinas aparecen en el mito del Golem y, combinados con las biotecnologías, en la historia del monstruo de Frankenstein. Por otro lado, se ha sugerido que las narrativas de desastres de varias tradiciones religiosas (donde están más relacionadas con la ira de las deidades) corresponderían a recuerdos de catástrofes reales (por ejemplo, el Diluvio estaría vinculado a la reconexión del Mar de Mármara con el Mar Negro; bajo el nombre de catastrofismo coherente,[133]​ Victor Clube y Bill Napier desarrollaron la hipótesis de que las lluvias de meteoros catastróficos han dado a luz a muchos mitos cosmológicos, que van desde la historia de la destrucción de Sodoma y Gomorra (tesis también defendida por Marie - Agnes Courty) a las descripciones del Apocalipsis.[147]​ Sin embargo, sus ideas son poco aceptadas por la comunidad científica.[148]

La existencia de estas interpretaciones míticas, así como muchas de las profecías del fin del mundo, facilita un fenómeno de negativa parcial o total a tener en cuenta estos riesgos catastróficos, conocido como síndrome de Casandra.[n 5][149]​ Si bien los riesgos antropogénicos se minimizan al atribuirlos a temores irracionales, las catástrofes descritas en los mitos se consideran exageradas por la ignorancia y la deformación de los recuerdos.[n 6][150]

El análisis de los riesgos causados por los humanos sufre de dos sesgos opuestos: los informantes tienden a exagerar el riesgo para hacerse oír,[n 7]​ incluso a denunciar riesgos imaginarios en nombre del principio de precaución.[151]​ Los poderosos intereses económicos, por otro lado, tratan de minimizar los riesgos asociados con sus actividades, como lo demuestra, por ejemplo, el caso del Instituto Heartland,[152]​ y más generalmente al analizar las estrategias de desinformación expuestas en Les Mercaderes de la duda.[n 8]

Dando una interpretación racional al mito de la edad de oro, Jared Diamond finalmente señala que ciertas catástrofes (los "colapsos" de Nick Bostrom) pueden pasar desapercibidas a las sociedades que las sufren, por falta de una memoria histórica suficiente;[n 9]​ por ejemplo, explica el desastre ecológico sufrido por los habitantes de la Isla de Pascua.[153]

Organizaciones de evaluación de riesgos

[editar]
Pictogramme représentant un quart d'horloge, les aiguilles sur minuit mois cinq.
Pictograma del reloj del fin del mundo.

El Boletín de los científicos atómicos es una de las organizaciones más antiguas preocupadas por los riesgos globales. Fue fundada en 1945 después de que el bombardeo de Hiroshima hiciera al público consciente de los peligros de las armas atómicas. Estudia los riesgos asociados con las tecnologías nucleares y las armas, y es famoso por su gestión del Reloj del fin del mundo desde 1947.

En 1972, el trabajo del Club de Roma dio lugar a un informe famoso, ¿Detener el crecimiento?, que alerta contra el riesgo de agotamiento de recursos naturales y desastres ecológicos antes de finales del siglo XXI. Publicado a mediados de los treinta años gloriosos, el informe es impugnado enérgicamente en cuanto se publica por su pesimismo,[n 5][154]​ pero sus supuestos se consideran bastante optimistas cuarenta años después de su publicación por el Club: El agotamiento en realidad ocurriría antes de mediados del siglo XXI.[155]

Desde principios de la década de los años 2000, un número cada vez mayor de científicos, filósofos y multimillonarios de las nuevas tecnologías han creado organizaciones independientes o académicamente dedicadas al análisis global de riesgo de catástrofes.[156]

Dichas organizaciones no gubernamentales (ONG) incluyen el Instituto de Investigación de Inteligencia de las Máquinas (establecido en el 2000), cuyo objetivo es reducir el riesgo de desastres relacionados con la inteligencia artificial y la singularidad tecnológica,[157]​ y del cual Peter Thiel es un donante importante.[158]​ Más recientemente, la Fundación Lifeboat (establecida en 2006) financia investigaciones para prevenir un desastre tecnológico,[159]​ y la mayor parte de los fondos se destina a proyectos universitarios.[160]​ El Future of Life Institute (FLI) se creó en 2014 para buscar los medios de salvaguardar la humanidad frente a nuevos desafíos tecnológicos.[161]Elon Musk es uno de los mayores donantes.[162]​ En 2017 se constituyó la Alianza para Alimentar a la Tierra en Desastres (ALLFED), para continuar el trabajo de Denkenberger y otros respecto a mejorar la preparación y resiliencia ante catástrofes alimentarias globales extremas.[163][164]

Entre las organizaciones subordinadas a las universidades están el Instituto del futuro de la Humanidad, fundado en 2005 por Nick Bostrom en la Universidad de Oxford para llevar a cabo la investigación sobre el futuro a largo plazo de la humanidad y los riesgos existenciales, el Centro para el Estudio del Riesgo Existencial (CSER), fundado en 2012 en la Universidad de Cambridge (y del cual Stephen Hawking era consultor) para estudiar cuatro riesgos antropogénicos: inteligencia artificial, biotecnologías, calentamiento global y los riesgos de la guerra; o en la Universidad de Stanford, el Centro para la Seguridad Internacional y la Cooperación, que estudia las políticas de cooperación para reducir el riesgo global de desastres.[165]

Finalmente, otros grupos de evaluación de riesgos pertenecen a organizaciones gubernamentales. Por ejemplo, la Organización Mundial de la Salud (OMS) tiene un departamento llamado Alerta y Respuesta Global (GAR), que es responsable de la coordinación entre los Estados miembros en caso de una pandemia.[166][167]​ La Agencia de los Estados Unidos para el Desarrollo Internacional (USAID) tiene un programa similar.[168]​ El Laboratorio Nacional Lawrence Livermore tiene una división, la Dirección Principal de Seguridad Global para estudiar asuntos gubernamentales, tales como la bioseguridad, la acción contra el terrorismo, etc.[169]

Precauciones y prevención.

[editar]

El concepto de gobernanza global que respeta los límites planetarios se ha propuesto como un enfoque para la reducción del riesgo de desastres. En particular, el campo de la geoingeniería planea manipular el entorno global para combatir los cambios antropogénicos en la composición atmosférica. Se han explorado técnicas integrales de almacenamiento y conservación de alimentos, pero sus costos serían altos y podrían agravar las consecuencias de la desnutrición. David Denkenberger y Joshua Pearce han sugerido el uso de alimentos alternativos para reducir el riesgo de inanición relacionada con catástrofes globales, como un invierno nuclear o un cambio climático repentino,[170]​ como la conversión de la biomasa de la madera en productos comestibles;[171]​ sin embargo, se necesitará mucho progreso en esta área para garantizar que estos métodos permitan que una parte significativa de la población sobreviva.[172]

Otras sugerencias de reducción de riesgos, como las estrategias de desviación de asteroides para contrarrestar el riesgo de impacto, o el desarme nuclear, son económica o políticamente difíciles de implementar. Finalmente, la colonización del espacio es otra propuesta hecha para aumentar las posibilidades de supervivencia ante un riesgo existencial,[173]​ pero las soluciones de este tipo, actualmente inaccesibles, sin duda requerirán, entre otras cosas, el uso a gran escala de la ingeniería.

Entre las precauciones realmente tomadas individual o colectivamente, se pueden mencionar:

Análisis y críticas

[editar]

La importancia de los riesgos detallados en las secciones anteriores rara vez se niega, aunque los riesgos para los humanos a menudo se minimizan;[n 8]​ sin embargo, los análisis de Nick Bostrom han sido criticados desde varias perspectivas distintas.

Críticas técnicas

[editar]

Muchos de los riesgos mencionados por Nick Bostrom en sus libros se consideran exagerados (o imaginarios), o corresponden a escalas de tiempo tan amplias que parece un tanto absurdo considerarlos con amenazas casi inmediatas.[177][n 10]​ Además, los cálculos de probabilidad, esperanza o utilidad son difíciles o están mal definidos para este tipo de situación, como lo demuestran, por ejemplo, las paradojas como el argumento del apocalipsis, como lo reconoce el propio Nick Bostrom.[177][178]​ En particular, ha desarrollado un argumento ético que indica que el número exorbitante de nuestros descendientes condenado por una catástrofe existencial justifica el uso de todos los medios imaginables para disminuir, si acaso, la probabilidad de este accidente;[10]​ sin embargo, los cálculos en los que se basa se han disputado y este argumento bien puede ser una falacia.[131]

Nick Bostrom y Max Tegmark publicaron en 2005 un análisis del riesgo de inestabilidad de todo el universo.[179]​ Independientemente de la validez de sus cálculos (que tienden a mostrar que el riesgo es muy bajo), uno puede preguntarse si realmente tiene significado hablar de una catástrofe de la que nadie sería advertido de antemano, y que no dejaría ningún observador. En una discusión similar sobre el riesgo de una reacción en cadena que envolviera toda la atmósfera, un amigo respondió a las inquietudes de Richard Hamming con: No te preocupes Hamming, no quedará nadie para maldecirte.[96]

Posiciones filosóficas

[editar]

Los análisis de Nick Bostrom se basan en el transhumanismo, una ideología que defiende el uso de la ciencia y la tecnología para mejorar las características físicas y mentales de los seres humanos; por lo tanto, considera que todo lo que podría impedir a la humanidad desarrollar plenamente su potencial es un riesgo existencial.[7]

Esta posición ha sido severamente criticada, en parte porque conduce a la negación de los valores a los que se une la humanidad actual, en nombre de los valores futuros hipotéticos.[12]​ Steve Fuller señala en particular que si un desastre global no destruye a toda la humanidad, los sobrevivientes pueden estimar legítimamente en algunos casos que su situación ha mejorado.[180]

En la ficción

[editar]
Representación de Gilgamesh

Literatura

[editar]

Los escenarios de desastre global aparecen en los mitos más antiguos conocidos. un diluvio que ahoga a todos los seres vivos en la Epopeya de Gilgamesh, destrucción por hielo, agua o fuego en el mito nórdico de Ragnarok, la lista de las diez plagas de Egipto, etc.[181]​ Pero ninguna de estas historias, ni las propuestas por la ciencia ficción hasta alrededor de 1950, se preocupan por las probabilidades científicas o sociológicas. Las descripciones de las distopías (correspondientes a los "aullidos" de Nick Bostrom ), con la notable excepción de la novela 1984, también prestan poca atención a la coherencia y viabilidad de los sistemas que proponen.

Bombas de Hiroshima y Nagasaki

Después de Hiroshima, se está desarrollando una abundante literatura post-apocalíptica, que incluye trabajos no clasificados en el campo de la ciencia ficción, como Malevil, pero la mayoría de estas novelas se centran en la cuestión de la supervivencia y no en las causas del desastre (casi siempre nuclear).[n 4]​ En 1985, Jacques Goimard explicará la popularidad de estas historias por el "deseo de derrumbarse".[182]

A principios de la década de 1970, surgieron descripciones de desastres ambientales descritos con realismo. Por ejemplo John Brunner publicó All in Zanzibar (1968) y The Blind Herd (1972), denunciando respectivamente los peligros de la superpoblación y la contaminación, y afirmando ser científicamente irreprochables; se basa en una documentación muy actualizada, que refleja los análisis de los movimientos ecologistas iniciales, y es sorprendentemente precisa en sus predicciones.[183]

Las novelas que describen desastres debidos a las nuevas tecnologías (inteligencia artificial, biotecnologías, nanotecnologías, etc.) no aparecen antes de 1990 y siguen siendo marginales. Muchos de los autores están más preocupados, como en las novelas sobre cultura de Iain Banks, sobre cómo los humanos podrían adaptarse a estas tecnologías, en universos inspirados en ideas transhumanistas.

Cine

[editar]

Los desastres han sido un tema de elección desde los inicios de la historia del cine (con, por ejemplo, en 1927 Metropolis, considerada como la primera película distópica), pero la dificultad de la realización de efectos especiales convincentes hace que los directores estén más apegados a la descripción de un mundo devastado, como en las películas de Mad Max.

Desde la década de 1990, los enormes avances en efectos especiales digitales le dan a las películas de catástrofes un nuevo aliento: Dia de la Independencia relata una invasión extraterrestre, la película Volcano el estallido de un volcán en la ciudad, Impacto Profundo y Armagedón que describen la destrucción de un cometa que amenaza con impactar contra la Tierra. También podemos citar las películas de Terminator y Matrix (que ilustra la "revuelta de las máquinas"). En 2004, El Dia Despues de Mañana de Roland Emmerich describe un repentino cambio climático. Sin embargo, todas estas películas han sido criticadas por su falta de realismo o probabilidad.[184][n 11]

Más recientemente, otros tipos de desastres globales, especialmente pandemias, han sido objeto de películas menos exigentes y, de hecho, más realistas, siendo la película más famosa de este tipo Contagio.

Véase también

[editar]

Notas

[editar]
  1. En négligeant les évènements de très faible probabilité, comme les impacts cosmiques par des objets de plus de 3 km de diamètre, au demeurant minimisés par les théories de l'époque concernant les grandes extinctions, attribuées à des causes graduelles.
  2. D’autres auteurs, comme Jared Diamond ou Paul R. Ehrlich, utilisent plutôt le terme
    effondrement
    (collapse).
  3. El riesgo de extinción completa está obviamente disminuido por el tamaño mismo de la humanidad (más de 7.500 millones de personas) y la existencia de grupos que desarrollan estrategias de supervivencia para la mayoría de los desastres posibles.
  4. a b Des catastrophes
    réalistes
    provenant de l’apparition d’une nouvelle technologie ont été parfois envisagées par des auteurs de science-fiction dès les années 1950 ; un célèbre exemple étant l’invention de la glace-neuf dans le roman de Kurt Vonnegut, Le Berceau du chat.
  5. a b Bajo el título Cassandra's Curse, un análisis de Ugo Bardi (del cual aquí se encuentra la versión original en inglés ) se publicó en 2011, estudiando la demonización del informe del Club de Roma titulado Stop Growth?.
  6. En L'Éveil, Oliver Sacks señala que incluso las pandemias relativamente recientes se minimizan (la gripe de 1918 ) o se olvidan por completo ( encefalitis letárgica ).
  7. Por lo tanto, en The P Bomb, Paul R. Ehrlich anunció en 1968 la hambruna masiva (debido a la sobrepoblación) que se espera que ocurra antes de 1980.
  8. a b En Merchants of Doubt, Naomi Oreskes y Erik M. Conway muestran que las mismas estrategias de desinformación utilizadas para negar los efectos nocivos del fumar se han utilizado para minimizar los efectos del calentamiento global, la lluvia ácida y la destrucción de pañales. ozono
  9. Al carecer de tradiciones escritas, por ejemplo, desconocen que, en el pasado, sus condiciones de vida eran mejores y repiten las acciones dañinas de sus predecesores porque desconocen sus consecuencias.
  10. Por lo tanto, parece poco probable que un día la humanidad pueda prevenir la expansión del Sol, y solo la colonización de sistemas extra-solares puede protegerlo. Sin embargo, este tipo de colonización (en el estado actual de nuestro conocimiento) se basa en capacidades tecnológicas y sociales muy alejadas de nuestras posibilidades actuales (por lo general, para mantener en las naves espaciales grandes civilizaciones estables de futuros colonos, durante varias decenas de años). miles de años); un serio análisis de costo-beneficio en este caso parece a muchos críticos totalmente ilusorio.
  11. Por ejemplo, explotar un asteroide como en Armagedón no salvaria a la Tierra del impacto. El cambio climático descrito en El Dia Despues de Mañana, además de ser poco probable que cause una nueva edad de hielo en el corto plazo, no puede de ninguna manera congelar a las personas que han quedado afuera de las casas y edificios.

Referencias

[editar]
  1. Schulte, Peter; Alegret, Laia; Arenillas, Ignacio; Arz, José A.; Barton, Penny J.; Bown, Paul R.; Bralower, Timothy J.; Christeson, Gail L. et al. (5 de marzo de 2010). «The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-Paleogene Boundary». Science (en inglés) 327 (5970): 1214-1218. ISSN 0036-8075. doi:10.1126/science.1177265. Consultado el 23 de febrero de 2022. 
  2. Bostrom, Nick; Ćirković, Milan M. (2008). Global catastrophic risks. Oxford University Press. ISBN 978-0-19-857050-9. OCLC 191245880. Consultado el 23 de febrero de 2022. 
  3. Bostrom, Nick (2002). «Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards». Journal of Evolution and Technology. Consultado el 23 de febrero de 2022. 
  4. Wyluda, Tomasz (2024). Omega risk: Analysis of events with low probability and catastrophic impact on the global economy. Katowice: University of Economics in Katowice - XVIII International Scientific Conference Analysis of International Relations 2024. Methods and Models of Regional Development. pp. 73-84. 
  5. Céline Grislain-Letrémy (2013). Les risques majeurs et l'action publique. La Documentation française. .
  6. Scarwell, Helga-Jane; Laganier, Richard (2004). Risque d'inondation et aménagement durable du territoire (en francés). Presses universitaires du Septentrion. p. 51 |página= y |páginas= redundantes (ayuda). ISBN 2-85939-870-8. .
  7. a b c d Bostrom, 2002.
  8. Bostrom, 2008, p. 1 (lire en ligne).
  9. a b c d Nick Bostrom (2013). «Existential Risk Prevention as Global Priority». Global Policy (en inglés): 15–31. doi:10.1111/1758-5899.12002. Consultado el 07 juillet 2014. .
  10. a b c Bostrom, Nick (2003). «Astronomical Waste: The opportunity cost of delayed technological development». Utilitas (en inglés) 15 (3): 308–314. doi:10.1017/s0953820800004076. .
  11. a b Posner, 2004, Introduction, « Qu'est-ce qu’une catastrophe ? ».
  12. a b Fukuyama, Francis (2004). «Transhumanism». Foreign Policy (en inglés). Consultado el 28 mai 2012. .
  13. a b Niall Firth (18 Juin 2010). «Human race 'will be extinct within 100 years', claims leading scientist» (en inglés). Consultado el 8 mars 2016. 
  14. a b «Frequently Asked Questions» (en inglés). Future of Humanity Institute. Consultado el 26 juillet 2013. . .
  15. «The Cambridge Project for Existential Risk» (en inglés). Cambridge University. .
  16. «'Terminator center' to open at Cambridge University». Fox News (en inglés). 26 novembre 2012. .
  17. a b (en inglés) Global Catastrophic Risks Survey, Technical Report, 2008, Future of Humanity Institute.
  18. Julien Cattiaux, Fabrice Chauvin, Hervé Douville et Aurélien Ribes (novembre 2016). «Des bulletins météo extrêmes à prévoir». La Recherche (517). .
  19. «2015: IT IS 3 MINUTES TO MIDNIGHT». Bulletin of the Atomic Scientists (en inglés). 2015. .
  20. a b "Es medianoche, menos dos minutos y medio antes del fin del mundo", Le Figaro.fr con AFP, 27 de enero de 2017.
  21. a b (en inglés) « The Doomsday Clock just moved: It’s now 2 minutes to ‘midnight,’ the symbolic hour of the apocalypse », Lindsey Bever, Sarah Kaplan et Abby Ohlheiser, The Washington Post.com, 25 janvier 2018.
  22. a b Isaac M. Held (novembre 2000). «Water Vapor Feedback and Global Warming». Annu. Rev. Energy Environ 2000 (en inglés): 449 et suivantes. .
  23. Hansen, James (2013). «Climate sensitivity, sea level and atmospheric carbon dioxide». Royal Society Publishing (en inglés) 371 (2001): 20120294. doi:10.1098/rsta.2012.0294. .
  24. Kendall Powell (2002). «Tropical 'runaway greenhouse' provides insight to Venus» (en inglés). NASA Ames Research Center. Archivado desde el original el 17 de agosto de 2016. Consultado el 22 de marzo de 2019. .
  25. Fricke, H. C. (2009). «Polar methane production, hothouse climates, and climate change». American Geophysical Union (en inglés). Fall Meeting. Bibcode:2009AGUFMPP44A..02F. .
  26. Chiarelli, B. (1998). «Overpopulation and the Threat of Ecological Disaster: the Need for Global Bioethics». Mankind Quarterly (en inglés) 39 (2): 225–230. .
  27. Evans-Pritchard, Ambrose (6 février 2011). «Einstein was right - honey bee collapse threatens global food security». The Daily Telegraph (en inglés) (Londres). .
  28. Valo, Martine (2014). «Il faut interdire l'usage des pesticides néonicotinoïdes en Europe». Le Monde (en francés) (Groupe Le Monde). .
  29. Andrew Van Dam (29 de marzo de 2024). «Wait, does America suddenly have a record number of bees?». Washington Post (en inglés). Consultado el 1 de abril de 2024. «America’s honeybee population has rocketed to an all-time high […] We’ve added almost a million bee colonies in the past five years. We now have 3.8 million, the census shows […] the honeybee has been the fastest-growing livestock segment in the country». 
  30. Meadows, 1974, p.129 et suiv. de l’édition anglaise.
  31. (en inglés)Nations unies, Département des Affaires économiques et sociales (2013). World Population Prospects - The 2012 Revision - Key Findings and Advance Tables. WPP2012KF. Archivado desde el original el 16 de octubre de 2013. Consultado el 22 de marzo de 2019. .
  32. a b «Historical Estimates of World Population». census.gov (en inglés). US Census Bureau. Archivado desde el original el 9 de julio de 2012. Consultado el 9 septembre 2013. .
  33. «The end of India's green revolution?». BBC News (en inglés). 29 mai 2006. Consultado el 31 janvier 2012. .
  34. Food First. «Green Revolution» (en inglés). Foodfirst.org. Consultado el 31 août 2016. .
  35. a b Matthieu Auzanneau (9 juillet 2012). «Nier l'imminence du pic pétrolier est une erreur tragique». Lemonde.org. Consultado el 10 août 2016. .
  36. a b c The Oil Drum: Europe. «Agriculture Meets Peak Oil» (en inglés). Europe.theoildrum.com. Consultado el 31 janvier 2012. .
  37. «Eating Fossil Fuels» (en inglés). EnergyBulletin.net. 02 octobre 2003. Archivado desde el original el 12 de febrero de 2012. Consultado el 31 janvier 2012. .
  38. Dale Allen Pfeiffer (2007). «Drawing Momentum from the Crash». uncommonthought.com (en inglés). .
  39. Marc Bettinelli (2 août 2017). «Le « jour du dépassement de la Terre » en infographies». lemonde.fr. Consultado el 8 novembre 2017. .
  40. «Past Earth Overshoot Days». overshootday.com (en inglés). .
  41. «Cereal Disease Laboratory : Ug99 an emerging virulent stem rust race» (en inglés). Ars.usda.gov. Consultado el 31 janvier 2012. .
  42. «Durable Rust Resistance in Wheat» (en inglés). Wheatrust.cornell.edu. Consultado el 31 janvier 2012. .
  43. Ainsi, une expérience intensive sur les risques d’hybridation avec le colza«Hybridation entre le colza et la ravenelle en conditions proches de la pratique agricole». inra.fr. 25 août 2000. Consultado el 20 octobre 2016.  a donné des résultats entièrement négatifs.
  44. Christiane Galus (15 août 2002). «Le “nuage brun” d’Asie pourrait menacer le climat de la planète». Le Monde. .
  45. «Un air irrespirable : la pollution atmosphérique tue et coûte de l’argent». banquemondiale.org. 8 septembre 2016. .
  46. La llamada de alarma de quince mil científicos sobre el estado del planeta, Le Monde, 13 de noviembre de 2017.
  47. «Environnement : l'avertissement de 15 000 scientifiques face à la dégradation de la planète - France 24». France 24 (en fr-FR). 14 de noviembre de 2017. Consultado el 17 de abril de 2018. 
  48. «Alerte de 15 000 scientifiques : leurs 9 indicateurs de dégradation de la planète analysés». France Culture (en fr-FR). 14 de noviembre de 2017. Consultado el 17 de abril de 2018. 
  49. Martin Hellman (1985). «On the Probability of Nuclear War». stanford.edu (en inglés). .
  50. Avner Cohen. [Riesgos catastróficos globales, p. 237, en Google Libros Nuclear Weapons and the Future of Humanity: The Fundamental Questions] |url= incorrecta (ayuda) (en inglés). p. 237. .
  51. a b Federation of American Scientists (28 avril 2015). «Status of World Nuclear Forces». Federation of American Scientists (en inglés). Consultado el 4 juin 2015. .
  52. Frank Dikötter (2010). La Grande Famine de Mao, 1958–62. Walker & Company. p. 13. ISBN 0-8027-7768-6. .
  53. Brian Martin (1982). «Critique of nuclear extinction». Journal of Peace Research (en inglés) 19 (4): 287–300. doi:10.1177/002234338201900401. Consultado el 25 octobre 2014. .
  54. L’hiver nucléaire, article de Richard Turco, Owen Toon, Thomas Ackerman, James Pollack et Carl Sagan, in La paix surarmée, Belin, 1987, traduction en français de l'article Nuclear Winter: Global Consequences of Multiples Nuclear Explosions in Science, vol. volume 222, n.º 4630, p. 1283-1292, 23 décembre 1983.
  55. a b Shulman, Carl (5 novembre 2012). «Nuclear winter and human extinction: Q&A with Luke Oman». Overcoming Bias (en inglés). Consultado el 25 octobre 2014. .
  56. C. Bardeen (2007). «Atmospheric effects and societal consequences of regional scale nuclear conflicts and acts of individual nuclear terrorism». Atmospheric Chemistry and Physics (en inglés). Consultado el 5 novembre 2016. .
  57. Bostrom, 2002, section 4.2.
  58. Herman Kahn (1960). On Thermonuclear War (en inglés). Princeton, NJ, USA: Princeton University Press,. .
  59. Christian Enemark (2006). «Biological attacks and the non-state actor: A threat assessment». Intelligence and National Security (en inglés). .
  60. «VIDEO - La tempête solaire qui a failli renvoyer la Terre au XVIIIe siècle». bfmtv.com. BFM TV. 25 juillet 2014. Consultado el 21 octobre 2016. .
  61. «La « guerre de l’eau »». lemonde.fr. 12 mars 2012. Consultado el 21 octobre 2016. .
  62. «Guerre de l'eau : le Pakistan menace l'Inde». lefigaro.fr. 27 septembre 2016. Consultado el 21 octobre 2016. .
  63. Bruno Chaudret (octobre 2013). «Métaux et terres rares : l’autre problème de la transition énergétique». Progressistes. Consultado el 21 octobre 2016. .
  64. Tainter, 1990.
  65. Il a formé un groupe multidisciplinaire pour étudier la culture anasazi dans Evolving Complexity and Environmental Risk in the Prehistoric Southwest (Santa Fe Institute Proceedings numéro 24), coédité avec Bonnie Bagley Tainter, 1998.
  66. a b John Markoff (26 juillet 2009). «Scientists Worry Machines May Outsmart Man». The New York Times (en inglés). .
  67. Vernor Vinge (1993). «The Coming Technological Singularity: How to Survive in the Post-Human Era». rohan.sdsu.edu (en inglés). 
  68. Bill Joy (2000). «Why the future doesn't need us». Wired (en inglés). .
  69. Nick Bostrom (2002). «Ethical Issues in Advanced Artificial Intelligence». nickbostrom.com (en inglés). .
  70. Bostrom, Nick (2014). Superintelligence : Paths, Dangers, Strategies (en inglés). Oxford University Press. ISBN 978-0199678112. 
  71. Rawlinson, Kevin. «Microsoft's Bill Gates insists AI is a threat» (en inglés). BBC News. Consultado el 30 janvier 2015. .
  72. Mariëtte Le Roux (12 mars 2016). «Rise of the Machines: Keep an eye on AI, experts warn». Phys.org (en inglés). Consultado el 13 mars 2016. .
  73. P. W. Singer (21 mai 2009). «Gaming the Robot Revolution: A military technology expert weighs in on Terminator: Salvation». slate.com (en inglés). Consultado el 21 octobre 2016. .
  74. Laurent Orseau (1 juin 2016). «Safely Interruptible Agents». intelligence.org (en inglés). Consultado el 21 octobre 2016. 
  75. Yudkowsky, Eliezer. «Artificial Intelligence as a Positive and Negative Factor in Global Risk». yudkowsky.net (en inglés). Consultado el 26 juillet 2013. .
  76. Tim Adams (12 juin 2016). «Artificial intelligence: ‘We’re like children playing with a bomb’». The Observer (en inglés). Consultado el 24 octobre 2016. .
  77. «1464 Schools Worldwide That Have Adopted AIMA». Consultado el 17 de junio de 2022. 
  78. a b c d e f g h i Bostrom, 2008, chapitre 20 : Biotechnologie et biosécurité. Error en la cita: Etiqueta <ref> no válida; el nombre «GCRs bio-chapter» está definido varias veces con contenidos diferentes
  79. a b c Steven Frank (1996). «Models of parasite virulence». Q Rev Biol (en inglés) 71 (1): 37–78. doi:10.1086/419267. Archivado desde el original el 18 de mayo de 2015. Consultado el 22 de marzo de 2019. 
  80. a b Sandberg, Anders. «The five biggest threats to human existence». theconversation.com (en inglés). Consultado el 13 juillet 2014. .
  81. Jackson, Ronald J.; Ramsay, Alistair J.; Christensen, Carina D.; Beaton, Sandra (2001). «Expression of Mouse Interleukin-4 by a Recombinant Ectromelia Virus Suppresses Cytolytic Lymphocyte Responses and Overcomes Genetic Resistance to Mousepox». Journal of Virology (en inglés) 75 (3): 1205–1210. doi:10.1128/jvi.75.3.1205-1210.2001. Consultado el 13 juillet 2014. .
  82. (en inglés) Le virus tueur augmente la crainte du bioterrorisma, article du New Scientist, 10 janvier 2001.
  83. a b c d e f g h i j k l Bostrom, 2008, chapitre 21 : Nanotechnology as global catastrophic risk.
  84. a b «Frequently Asked Questions - Molecular Manufacturing». foresight.org (en inglés). Archivado desde el original el 26 de abril de 2014. Consultado el 19 juillet 2014. .
  85. Chris Phoenix et Mike Treder (novembre 2003). «Three Systems of Action: A Proposed Application for Effective Administration of Molecular Nanotechnology». crnano.org (en inglés). Consultado el 19 juillet 2014. .
  86. Drexler, Eric. «A Dialog on Dangers». foresight.org (en inglés). Archivado desde el original el 14 de julio de 2014. Consultado el 19 juillet 2014. .
  87. Drexler, Eric. «Engines of Destruction (Chapter 11)». e-drexler.com (en inglés). Archivado desde el original el 6 de septiembre de 2014. Consultado el 19 juillet 2014. .
  88. «Dangers of Molecular Manufacturing». crnano.org (en inglés). Consultado el 19 juillet 2014. .
  89. a b «The Need for International Control». crnano.org (en inglés). Consultado el 19 juillet 2014. .
  90. «Technical Restrictions May Make Nanotechnology Safer». crnano.org (en inglés). Consultado el 19 juillet 2014. .
  91. Joseph, Lawrence E. (2007). Apocalypse 2012 (en inglés). New York: Broadway. p. 6. ISBN 978-0-7679-2448-1. .
  92. Rincon, Paul (09 juin 2004). «Nanotech guru turns back on 'goo'». BBC News (en inglés). Consultado el 30 mars 2012. .
  93. Hapgood, Fred (1986). «Nanotechnology: Molecular Machines that Mimic Life». Omni (en inglés). Archivado desde el original el 27 de julio de 2013. Consultado el 19 juillet 2014. .
  94. «Leading nanotech experts put 'grey goo' in perspective». crnano.org (en inglés). Consultado el 19 juillet 2014. .
  95. Bostrom, 2002, section 4.8.
  96. a b Richard Hamming. «Mathematics on a Distant Planet» (en inglés). .
  97. «Report LA-602, ''Ignition of the Atmosphere With Nuclear Bombs''» (PDF) (en inglés). Consultado el 19 octobre 2011. .
  98. Robert Matthews (28 août 1999). «A Black Hole Ate My Planet». New Scientist (en inglés). Consultado el 23 octobre 2016. .
  99. Konopinski, Emil; Marvin, C.; Teller, Edward (1946). «Ignition of the Atmosphere with Nuclear Bombs» (PDF). Los Alamos National Laboratory (en inglés) (LA–602). Consultado el 23 novembre 2008. .
  100. (en inglés) Une déclaration officielle concernant la sécurité du LHC Archivado el 24 de octubre de 2009 en Wayback Machine..
  101. «Safety at the LHC» (en inglés). .
  102. (en inglés) J. Blaizot et al. (2003). «Study of Potentially Dangerous Events During Heavy-Ion Collisions at the LHC». doc.cern.ch (en inglés). CERN. Archivado desde el original el 7 de septiembre de 2008. Consultado el 22 de marzo de 2019. .
  103. «Crossing the Line: Selection and Evolution of Virulence Traits». PLoS Pathogens (en inglés) 2 (5): e42. 2006. doi:10.1371/journal.ppat.0020042. .
  104. «Challenging the trade-off model for the evolution of virulence: is virulence management feasible?». Trends Microbiol. (en inglés) 11 (1): 15–20. 2003. doi:10.1016/S0966-842X(02)00003-3. .
  105. «Virulence evolution in emerging infectious diseases». Evolution (en inglés) 59 (7): 1406–12. 2005. doi:10.1554/05-111. .
  106. Gandon S (2004). «Evolution of multihost parasites». Evolution (en inglés) 58 (3): 455–69. doi:10.1111/j.0014-3820.2004.tb01669.x. .
  107. «Une super-bactérie cauchemardesque résiste à tous les antibiotiques». L'Express. 27 mai 2016. Consultado el 24 octobre 2016. .
  108. Anne Debroise (septembre 2016). «Menace mondiale sur la santé publique». La Recherche. .
  109. «Obésité et surpoids». who.int. Organisation mondiale de la santé. 2016. Consultado el 24 octobre 2016. .
  110. Platts-Mills TA (2005). «Is the hygiene hypothesis still a viable explanation for the increased prevalence of asthma?». Allergy. 60 Suppl 79: 25–31. (en inglés). PMID 15842230. doi:10.1111/j.1398-9995.2005.00854.x. .
  111. P. Bernanose (26 mai 2013). «Notre intelligence est-elle en train de s’émousser ?». santelog.com. Consultado el 24 octobre 2016. .
  112. Bostrom, 2008, ch.13, p. 276.
  113. a b Rampino, M. R.; Ambrose, S. H. (2000). «Super eruptions as a threat to civilizations on Earth-like planets». Icarus (en inglés) 156: 562–569. Bibcode:2002Icar..156..562R. doi:10.1006/icar.2001.6808. Archivado desde el original el 24 de septiembre de 2015. Consultado el 22 de marzo de 2019. .
  114. Kate Ravilious (2005). «What a way to go». The Guardian (en inglés). .
  115. Université d'Oxford (2009). «The Toba supereruption». toba.arch.ox.ac.uk (en inglés). Archivado desde el original el 3 de octubre de 2016. Consultado el 22 de marzo de 2019. .
  116. Stanley H. Ambrose (1998). «Late Pleistocene human population bottlenecks, volcanic winter, and differentiation of modern humans». Journal of Human Evolution (en inglés) 34 (6): 623–651. doi:10.1006/jhev.1998.0219. Archivado desde el original el 28 de septiembre de 2010. Consultado el 22 de marzo de 2019. .
  117. a b Breining, Greg (2007). Super Volcano: The Ticking Time Bomb Beneath Yellowstone National Park (en inglés). St. Paul, MN.: Voyageur Press. p. 256. ISBN 978-0-7603-2925-2. .
  118. Plotnick, Roy E. (1 janvier 1980). «Relationship between biological extinctions and geomagnetic reversals». Geology (en inglés) 8 (12): 578. Bibcode:1980Geo.....8..578P. doi:10.1130/0091-7613(1980)8<578:RBBEAG>2.0.CO;2. .
  119. Glassmeier, Karl-Heinz (29 mai 2010). «Magnetic Polarity Transitions and Biospheric Effects». Space Science Reviews (en inglés) 155 (1-4): 387–410. Bibcode:2010SSRv..155..387G. doi:10.1007/s11214-010-9659-6. .
  120. Pararas-Carayannis, George (2002). «Evaluation of the threat of mega tsunami generation from postulated massive slope failures of island volcanoes on La Palma, Canary Islands, and on the island of Hawaii» (en inglés). drgeorgepc.com. Consultado el 20 décembre 2008. .
  121. «La chute d’une météorite a bien été fatale aux dinosaures». Le Monde.fr. 8 février 2013. Consultado el 22 octobre 2016. .
  122. a b Bostrom, 2002, section 4.10.
  123. (en inglés) Une analyse des effets d’impacts cosmiques Archivado el 22 de diciembre de 2016 en Wayback Machine., et un simulateur basé sur cette analyse, développé à l’université d’Arizona.
  124. Laurent Sacco, ¿ El apocalipsis en 7.6 billones de años?. futura-sciences.com, 28 de febrero de 2008..
  125. (en inglés) Ken Croswell, Will Mercury Hit Earth Someday? Archivado el 7 de octubre de 2008 en Wayback Machine., Skyandtelescope.com 24 avril 2008.
  126. (en inglés) Explosions in Space May Have Initiated Ancient Extinction on Earth Archivado el 15 de julio de 2012 en Wayback Machine., NASA.
  127. Anne Minard (3 avril 2009). «Gamma-Ray Burst Caused Mass Extinction?». http://news.nationalgeographic.com (en inglés). National Geographic News. .
  128. Adrian Melott (2011). «Astrophysical Ionizing Radiation and the Earth: A Brief Review and Census of Intermittent Intense Sources». Astrobiology (en inglés) 11: 343–361. Bibcode:2011AsBio..11..343M. doi:10.1089/ast.2010.0603. .
  129. Fraser Cain (04 août 2003). «Local Galactic Dust is on the Rise». Universe Today (en inglés). .
  130. Bostrom, 2002, section 7.2.
  131. a b c Matheny, Jason Gaverick (2007). «Reducing the Risk of Human Extinction». Risk Analysis (en inglés) 27 (5): 1335–1344. doi:10.1111/j.1539-6924.2007.00960.x. Archivado desde el original el 27 de agosto de 2014. Consultado el 22 de marzo de 2019. .
  132. Asher, D.J.; Bailey, M.E.; Emel'yanenko, V.; Napier, W.M. (2005). «Earth in the cosmic shooting gallery» (PDF). The Observatory (en inglés) 125: 319–322. Bibcode:2005Obs...125..319A. .
  133. a b (en inglés) David J. Asher, Victor Clube, Bill Napier et Duncan Steel (1994). Coherent Catastrophism. Vistas in Astronomy, 38 (1), 1-27 (Harvard.edu résumé en ligne).
  134. Ambrose, 1998;Rampino y Ambrose, 2000, p. 71, 80.
  135. a b Robinson Meyer (29 avril 2016). «Human Extinction Isn't That Unlikely» (en inglés). The Atlantic. Consultado el 30 avril 2016. .
  136. «Global Challenges Foundation website, Report for 2016» (en inglés). globalchallenges.org. Archivado desde el original el 8 de mayo de 2016. Consultado el 30 avril 2016. .
  137. a b Milan Ćirković, Anders Sandberg y Nick Bostrom (2010). «Anthropic Shadow: Observation Selection Effects and Human Extinction Risks». Risk Analysis (en inglés) 30: 1495–1506. doi:10.1111/j.1539-6924.2010.01460.x. .
  138. Jones, E. M. (1 mars 1985). «'Where is everybody?' An account of Fermi's question» (en inglés). Los Alamos National Laboratory (LANL), United States Department of Energy. Consultado el 12 janvier 2013. 
  139. Ventrudo, Brian (5 juin 2009). «So Where Is ET, Anyway?». Universe Today (en inglés). Consultado el 10 mars 2014.  :
    Some believe [the Fermi Paradox] means advanced extraterrestrial societies are rare or nonexistent. Others suggest they must destroy themselves before they move on to the stars
  140. Parfit, Derek (1984). Reasons and Persons (en inglés). Oxford University Press. pp. 453–454. .
  141. Harrington, Damian (21 février 2000). «Date set for desert Earth». BBC News Online (en inglés). .
  142. Weitzman, Martin (2009). «On modeling and interpreting the economics of catastrophic climate change». The Review of Economics and Statistics (en inglés) 91 (1): 1–19. doi:10.1162/rest.91.1.1. .
  143. a b c Eliezer Yudkowsky (2008). «Cognitive Biases potentially affecting judgments of global risks». intelligence.org (en inglés). MIRI. Consultado el 23 octobre 2016. .
  144. J.A. Hausman (1993). «Measuring natural resource damages with contingent valuation: tests of validity and reliability». Contingent Valuation:A Critical Assessment (en inglés). Amsterdam: North Holland. p. 91−159. .
  145. Voir par exemple cette recension de Phillip V. Stanley Archivado el 29 de noviembre de 2020 en Wayback Machine. (en inglés) dans le cadre d’un cours sur les mythes grecs de catastrophe, et plus généralementJeanvrin, 2009.
  146. Sept ans de famine, trois mois de guerre ou trois jours de peste
    , Samuel 24-13.
  147. Victor Clube y Bill Napier, Cosmic Winter, El jardín de los libros, 2006.
  148. (en inglés) Un contre-argument important développé par un des experts de la NASA Archivado el 22 de marzo de 2019 en Wayback Machine..
  149. (en inglés) AtKisson, A., Believing Cassandra: An Optimist Looks at a Pessimist's World, [[{{{2}}}]] (1999).
  150. D’autres motivations pour ce refus sont exposées dans "Confronting the New Misanthropy" Archivado el 29 de marzo de 2016 en Wayback Machine. (en inglés), un article de Frank Furedi dans Spiked en 2006.
  151. Voir cette analyse des spéculations alarmistes autour du LHC, et en particulier cet article (en inglés) de Nature.
  152. Normand Baillargeon (21 février 2012). «Vous reprendrez bien un peu de propagande». http://voir.ca. Voir. .
  153. Diamond, 2006, ch.2, section La forêt évanouie..
  154. Marie-Béatrice Baudet (2015). «Aurelio Peccei, premier résistant à la croissance». Le Monde. 
  155. Mark Strauss (2012). «Looking Back on the Limits of Growth». Simthsonian Magazine (en inglés). 
  156. Sophie McBain (25 septembre 2014). «Apocalypse soon: the scientists preparing for the end of times» (en inglés). New Statesman. Consultado el 5 juin 2015. .
  157. «Reducing Long-Term Catastrophic Risks from Artificial Intelligence» (en inglés). Machine Intelligence Research Institute. Consultado el 5 juin 2015. .
  158. Angela Chen (11 septembre 2014). «Is Artificial Intelligence a Threat?» (en inglés). The Chronicle of Higher Education. Consultado el 5 juin 2015. .
  159. «About the Lifeboat Foundation» (en inglés). The Lifeboat Foundation. Consultado el 26 avril 2013. .
  160. Ashlee Vance (20 juillet 2010). «The Lifeboat Foundation: Battling Asteroids, Nanobots and A.I.» (en inglés). New York Times. Consultado el 5 juin 2015. .
  161. «The Future of Life Institute» (en inglés). Consultado el 5 mai 2014. .
  162. Nick Bilton (28 mai 2015). «Ava of ‘Ex Machina’ Is Just Sci-Fi (for Now)» (en inglés). New York Times. Consultado el 5 juin 2015. .
  163. phil. «ALLFED». Alliance to Feed the Earth in Disasters (en inglés británico). Consultado el 17 de junio de 2022. 
  164. «Catástrofes alimentarias extremas». Riesgos Catastróficos Globales. Consultado el 17 de junio de 2022. 
  165. «Center for International Security and Cooperation» (en inglés). Center for International Security and Cooperation. Consultado el 5 juin 2015. .
  166. «Global Alert and Response (GAR)» (en inglés). World Health Organization. Consultado el 5 juin 2015. .
  167. Kelley Lee (2013). Historical Dictionary of the World Health Organization (en inglés). Rowman & Littlefield. p. 92. Consultado el 5 juin 2015. .
  168. «USAID Emerging Pandemic Threats Program» (en inglés). USAID. Archivado desde el original el 22 octobre 2014. Consultado el 5 juin 2015. .
  169. «Global Security» (en inglés). Lawrence Livermore National Laboratory. Archivado desde el original el 27 de diciembre de 2007. Consultado el 5 juin 2015. .
  170. (en inglés) David Denkenberger et Joshua Pearce, [[{{{2}}}]], Elsevier, San Francisco, 2014.
  171. (en inglés) Denkenberger, D. C., & Pearce, J. M. (2015). Feeding Everyone: Solving the Food Crisis in Event of Global Catastrophes that Kill Crops or Obscure the Sun. Futures. 72:57–68. open access .
  172. (en inglés) Baum, S. D., Denkenberger, D. C., A Pearce, J. M., Robock, A., Winkler, R. Resilience to global food supply catastrophes. Environment, Systems and Decisions 35(2), p. 301-313 (2015). open access.
  173. Mankind must abandon earth or face extinction: Hawking (en inglés). physorg.com. 9 août 2010. Consultado el 23 janvier 2012. .
  174. Lewis Smith (27 février 2008). «Doomsday vault for world’s seeds is opened under Arctic mountain». The Times Online (en inglés) (Londres). Archivado desde el original el 12 de mayo de 2008. Consultado el 22 de marzo de 2019. .
  175. «En Norvège, la réserve mondiale de graines rattrapée par le réchauffement». Libération. 26 mai 2017. .
  176. «Changement climatique : le permafrost entourant la Banque mondiale de graines a fondu». Courrier international. 22 mai 2017. .
  177. a b Nick Bostrom (2003). «Are You Living In a Computer Simulation?». Philosophical Quarterly 53: 243-255. .
  178. Nick Bostrom (2001). «The Doomsday Argument, Adam & Eve, UN++, and Quantum Joe». Synthese (en inglés) 127 (3): 359–387. doi:10.1023/A:1010350925053. .
  179. M. Tegmark (2005). «Is a doomsday catastrophe likely?». Nature (en inglés) 438 (5875): 754. Bibcode:2005Natur.438..754T. doi:10.1038/438754a. .
  180. (en inglés) Steve Fuller, Why Superintelligence May Not Help Us Think about Existential Risks—or Transhumanism, Social Epistemology Review and Reply Collective 3, no. 10 (2014): 47-49.
  181. Jeanvrin, 2009.
  182. Jacques Goimard, prefacio a Histoires de catastrophes, en la Gran Antología de la Ciencia Ficción..
  183. Lista de predicciones de Todo en Zanzibar. [1], en Gentside.
  184. Las películas con las mayores aberraciones científicas, en el sitio senscritique.com.