Продолжая использовать сайт, вы даете свое согласие на работу с этими файлами.
Riesgos catastróficos globales
La noción de riesgo catastrófico global o riesgo de desastre global es introducida en 2008 por el filósofo Nick Bostrom para designar un evento futuro hipotético que tenga el potencial de degradar el bienestar de la mayoría de la humanidad, por ejemplo, destruyendo la civilización moderna. También había propuesto, ya en 2002, llamar riesgo existencial a un evento que podría causar la extinción de la humanidad o una pérdida permanente del potencial futuro de la humanidad.
Ámbito
Entre las posibles catástrofes globales se incluyen no solo el cambio climático, las pandemias y guerras nucleares, sino también los riesgos relacionados con la nanotecnología o una absorción por parte de una inteligencia artificial hostil, y los eventos originados en el espacio tales como los impactos de meteoritos.
Un estudio cuantitativo riguroso de estos riesgos es difícil, debido a la incertidumbre acerca de las consecuencias finales del peligro que desencadena la catástrofe, y la probabilidad de este peligro, y también debido a muchos sesgos cognitivos que complican el análisis. Además, un evento que pueda haber causado la extinción de la humanidad o la destrucción completa de la civilización obviamente nunca ha ocurrido desde que existe la especie, y la probabilidad de que ocurra se minimiza. Este fenómeno se conoce en las estadísticas bajo el nombre de sesgo de selección.
Aunque los riesgos de una catástrofe global han sido el tema de muchos escenarios de ciencia ficción (a menudo modernizando mitos muy antiguos como el de Pandora) y de declaraciones alarmistas en los años cincuenta, es solo al principio del siglo XXI que varias organizaciones comenzaron a estudiarlas sistemáticamente, especialmente bajo el impulso de los movimientos transhumanistas.
Clasificaciones
Riesgos mayores
Un riesgo mayor es un evento incierto cuya realización a menudo no es muy probable, pero cuyos efectos negativos son considerables. Los geógrafos y muchos especialistas después de ellos dividen esta noción en tres términos:
- el peligro, que es el evento incierto en sí mismo,
- los riesgos, que son los valores socioeconómicos o ecológicos sujetos a los efectos del peligro cuando ocurre, y
- la vulnerabilidad, que establece el grado en mayor o menor grado de la destrucción de los logros por estos efectos.
Por ejemplo, en el caso del riesgo de inundación de un río, el peligro es la inundación del curso de agua, los riesgos son las personas y los bienes expuestos a la inundación, y finalmente, la vulnerabilidad se mide en particular teniendo en cuenta la altura, resistencia y estanqueidad de los edificios en cuestión.
Riesgo de catástrofe global y riesgo existencial
El filósofo Nick Bostrom introdujo en 2002 la noción de riesgo existencial, y en 2008 la noción de riesgo catastrófico global, en relación con una clasificación de riesgo según su extensión e intensidad, el rango desde la escala individual a todas las generaciones futuras, y la intensidad de "imperceptible" hasta "máximo" (los ejemplos se dan en la tabla a continuación). En esta escala, se define un "riesgo de catástrofe global" como al menos "global" (que afecta a la mayoría de los seres humanos) y de "mayor" intensidad (que afecta el bienestar de las personas durante un período prolongado). Un "riesgo existencial" se define como "transgeneracional" y "máximo" (irreversible y fatal a corto plazo). Por lo tanto, un riesgo existencial destruye a la humanidad (o incluso a todas las formas de vida superior) o al menos no deja ninguna posibilidad de la reaparición de una civilización, mientras que una catástrofe global, incluso si matara a la mayoría de los humanos, dejaría una oportunidad para sobrevivir y reconstruir a los otros. Bostrom considera, por lo tanto, que los riesgos existenciales son mucho más significativos; también señala que la humanidad no podría haber considerado un riesgo existencial antes de 1950, y que todas las estrategias diseñadas para reducir los riesgos de catástrofe global son ineficaces frente a las amenazas de extinción completas.
Independientemente de este trabajo, en Catastrophe: Risk and Response, Richard Posner en 2004 agrupó eventos que trajeron "un completo trastorno o ruina" a escala global (en lugar de local o regional), considerándolos como dignos de atención especial, en términos de análisis de costo-beneficio, porque podrían, directa o indirectamente, poner en peligro la supervivencia de la humanidad en su conjunto. Entre los eventos discutidos por Posner se encuentran los impactos cósmicos, el calentamiento global, las plagas grises, el bioterrorismo y los accidentes en los aceleradores de partículas.
Casi por definición, las catástrofes globales no solo son riesgos importantes, sino que representan una vulnerabilidad máxima y problemas tan vastos que son imposibles de cuantificar. Esto resulta en una confusión frecuente entre riesgo y peligro en este caso.
riesgo | imperceptible | soportable | mayor | máximo |
personal | Pérdida de un cabello | Pérdida de un dedo | Amputación de una pierna | muerte |
local | Tráfico lento | Cortar carreteras | destrucción de infraestructuras |
Terremoto de 1755 en Lisboa |
total | Calentamiento global | Año sin verano |
Destrucción completa de la capa de ozono |
Invierno nuclear |
transgeneracional | Pérdida de una especie de escarabajo |
Desaparición de los felinos. | Extinción del holoceno | Fin de la humanidad |
Clasificación según los escenarios
Bostrom identifica cuatro tipos de escenarios de catástrofes globales. Las "explosiones" son desastres brutales (accidentales o deliberadas); los ejemplos más probables son la guerra nuclear, el uso agresivo (y fuera de control) de la biotecnología o nanotecnología, y los impactos cósmicos. Los colapsos son escenarios de degradación progresiva de las estructuras sociales en las que la humanidad sobrevive, pero la civilización se destruye irremediablemente, por ejemplo, por el agotamiento de los recursos naturales o por la disminución de las presiones disgénica, bajando la inteligencia media. Los alaridos son escenarios de futuros distópicos, como los regímenes totalitarios que utilizan inteligencias artificiales para controlar la especie humana. Los gemidos son disminuciones graduales en los valores, y después en la civilización. Nick Bostrom considera que los últimos tres tipos de escenarios impiden (más o menos definitivamente) que la humanidad se dé cuenta de su potencial. Francis Fukuyama cree que este argumento, que se basa en los valores del transhumanismo, no es suficiente en sí mismo para clasificar a todos como riesgos de catástrofe global.
Fuentes potenciales de riesgo
Entre los riesgos existenciales, es decir, los riesgos de extinción masiva de la biosfera, incluida la especie humana, se encuentran principalmente las causas exógenas naturales, como:
- la caída de un gran asteroide (extinción Cretácico-Terciaria);
- una erupción volcánica a gran escala y de larga duración (traps de Siberia o Deccan);
- episodios de anoxia oceánica global (extinciones del Devónico o paleozoicas tardías);
- Una glaciación general que afecta a todo el planeta: escenario de la bola de nieve terrestre (criogenia);
- la explosión de una supernova a corta distancia del sistema solar;
- Una explosión de rayos gamma dirigida hacia nuestra región de la galaxia.
Tales fenómenos han ocurrido en muchas ocasiones en el pasado, pero su probabilidad de ocurrencia en la escala histórica es a menudo imposible de evaluar por falta de datos científicos suficientes (las observaciones precisas comenzaron hace tres siglos).
Por otro lado, los riesgos de una catástrofe global con mayor frecuencia corresponden a causas endógenas (debido a acciones humanas):
- rapacidad, violencia, ignorancia, fanatismo, imprevisión, sobreexplotación excesiva de todos los recursos disponibles;
- aniquilación nuclear ;
- un efecto disgénico globalizado;
- superpoblación catastrófica del planeta;
- una pandemia de origen artificial, ya sea accidental o criminal;
- el reemplazo de la humanidad por inteligencia artificial capaz de aprender, elegir y autorreplicarse, por lo tanto, por robots o plaga gris.
Con el desarrollo de las tecnologías, la destrucción, si no de la raza humana, al menos de la civilización moderna por las acciones de una nación, una corporación, una comunidad religiosa o de otro tipo, o incluso una acción individual, es más probable que antes desde un punto de vista estadístico. Sin embargo, es posible que el desarrollo de técnicas de seguridad reduzca estos riesgos, pero sacrificando los derechos humanos y las libertades democráticas.
Algunos escenarios combinan causas naturales y artificiales: una gran tormenta magnética del Sol o una reversión del campo magnético de la Tierra podría bloquear el funcionamiento de los dispositivos electrónicos y las redes que se han vuelto totalmente dependientes de la economía global, dando lugar a una quiebra financiera global y conflictos a gran escala.
De acuerdo con el Future of Humanity Institute, las causas antropogénicas amenazan más con causar la extinción de la humanidad que las causas naturales. De manera similar, el Cambridge Project for Existencial Risk (desarrollado en 2012 por el Centro para el Estudio de Riesgos Existenciales de la Universidad de Cambridge ) afirma que las "mayores amenazas" para la especie humana son antropogénicas ; Según él, se trata del calentamiento global, las guerras nucleares, las biotecnologías que han escapado al control y las inteligencias artificiales hostiles.
Las listas más detalladas de riesgos que se incluyen a continuación (algunos de los cuales se correlacionan entre sí, por ejemplo, una crisis sistémica que debilita los servicios de salud aumentará el riesgo de una pandemia) se clasifican según una probabilidad estimada decreciente. Esta clasificación, que abarca el trabajo de los diversos grupos de estudio que se mencionan a continuación, no encaja bien con las clasificaciones más tradicionales de los geógrafos, que se basan en particular en la tipología de los problemas (ambientales, económicos, etc.).
Riesgos por acciones humanas.
Calentamiento global
El calentamiento global actual (que ya no es cuestionado por la comunidad científica, y la mayoría del cual se atribuye a actividades industriales desde el siglo XIX), conduce a variaciones climáticas anormales en toda la Tierra, y a efectos secundarios como el aumento del nivel del mar y su acidificación. Incluso las proyecciones más moderadas de este calentamiento sugieren que aumentará, aumentando en particular la frecuencia y la intensidad de los fenómenos meteorológicos extremos (olas de calor, inundaciones, tormentas, etc.) y los desastres asociados.
Los efectos indirectos incluyen la pérdida de biodiversidad, el daño al sistema de producción agrícola actual, el aumento de la propagación de enfermedades infecciosas como la malaria y la rápida mutación de microorganismos. En 2015, el reloj del fin del mundo avanzó dos minutos para reflejar el hecho de que el Boletín de los científicos atómicos ahora comsidera el cambio climático un riesgo catastrófico global y posiblemente existencial; el 26 de enero de 2017, nuevamente se adelantó por treinta segundos considerando los comentarios y los primeros actos de Donald Trump sobre este tema, luego avanzó otros treinta segundos el 25 de enero de 2018, debido a la incapacidad de los dirigentes mundiales para hacer frente a las amenazas inminentes de una guerra nuclear y del cambio climático.
Incluso se ha sugerido que exceder un cierto umbral podría hacer que el clima de la Tierra cambie a un estado estable de combustión similar al de Venus (esta es la tesis del embalamiento climático). Escenarios menos extremos, sin hacer la Tierra inhabitable, podrían causar el fin de la civilización. Sin embargo, la existencia de climas mucho más cálidos en el pasado relativamente reciente, por ejemplo al comienzo del Eoceno, lleva a muchos expertos a cuestionar que este riesgo sea real.
Superpoblación y crisis agrarias
Un desastre ecológico, como las cosechas catastróficas seguidas por un colapso en los servicios de los ecosistemas, podría resultar de las tendencias actuales de la superpoblación, el crecimiento económico desenfrenado y la falta de agricultura sostenible. La mayoría de los escenarios catastróficos involucran uno o más de los siguientes factores: la extinción del Holoceno, la escasez de agua potable (lo que podría llevar a que aproximadamente la mitad de la humanidad tenga solo agua con riesgos para la salud) y la disminución de los polinizadores, pero también la pesca excesiva, la deforestación masiva, la desertificación, el cambio climático o, finalmente, los episodios de contaminación del agua; muchas de estas preocupaciones ya fueron evidentes en el Informe Meadows de 1972.
Incluso sin una catástrofe repentina (las "explosiones" definidas por Nick Bostrom), los desequilibrios entre la población y los recursos alimenticios pueden conducir progresivamente a una gran crisis, la catástrofe maltusiana (son "colapsos" en la misma clasificación). El siglo XX experimentó un rápido aumento de la población mundial debido a los avances en medicina y una gran mejora en la productividad agrícola, particularmente a partir de la Revolución Verde. Así, entre 1950 y 1984, los cambios globales en la agricultura llevaron a un aumento del 250 % en la producción de cereales. La Revolución Verde permitió que la producción de alimentos siguiera el ritmo del crecimiento de la población e incluso la promoviera. La energía requerida para el trabajo agrícola fue proporcionada por los combustibles fósiles, ya sea para tractores e irrigación (con motores que consumen hidrocarburos), o para la fabricación de fertilizantes y pesticidas. Pero la llegada del pico del petróleo podría provocar una crisis agrícola.
En un estudio titulado Food, Land, Population and the U. S. Economy, David Pimentel (profesor de la Universidad de Cornell) y Mario Giampietro (investigador del National Research Institute en Food and Nutrition) creen que la población máxima de EE. UU. para una economía sostenible no puede exceder los 200 millones. El mismo estudio establece que para evitar desastres, la población mundial debería reducirse en dos tercios; piensan que las consecuencias de esta crisis agrícola deberían aparecer a partir de 2020 y ser críticas después de 2050.
Dale Allen Pfeiffer teme que en las próximas décadas se produzca un aumento en los precios de los alimentos, seguido de hambrunas masivas como las que el mundo nunca ha visto. Estos cálculos se superponen con los de la ONG estadounidense Global Footprint Network, que determina el día del rebasamiento (la fecha en la que se consume por completo la producción mundial anual de recursos renovables), y encuentra que desde 1971 (el año en que ocurrió por primera vez), llega cada año antes. En 2018, ocurrió el 1 de agosto,.
Desastres ambientales
Además de las crisis mencionadas anteriormente, diversos riesgos ecológicos amenazan la producción agrícola. Así, el trigo, el tercer cereal producido después del maíz y el arroz, sigue siendo susceptible a las infecciones por hongos. Ug99, una variedad de óxido negro, puede causar la falla completa de los cultivos de la mayoría de las variedades modernas. La infección se propaga por el viento y no se conoce ningún tratamiento; Si contamina las principales regiones de producción (Estados Unidos, Europa, Rusia y el norte de China), la crisis resultante provocará un alza de los precios, pero también la escasez de otros productos alimenticios.
Al igual que con otros escenarios de desastre, los desplazamientos masivos de población o incluso las guerras deben ser temidos. Por otro lado, a pesar de los debates sobre la introducción de plantas modificadas genéticamente, los riesgos de que esta introducción cause un desastre ecológico global (por ejemplo, la aparición de insectos resistentes a todos los pesticidas o malezas invasivas) parecen insignificantes.
La mayoría de las otras catástrofes ambientales previsibles ( derrames de petróleo, contaminación industrial e incluso accidentes nucleares ) permanecen localizadas. Sin embargo, la nube marrón de Asia podría tener consecuencias climáticas en todo el mundo. Del mismo modo, la contaminación del océano parece ser global.
Finalmente, las muertes por contaminación del aire alcanzan un nivel alarmante y causan un déficit económico anual de cientos de miles de millones de dólares, según el Banco Mundial. No está claro, sin embargo, que esto sea una catástrofe global en el sentido de Nick Bostrom, ya que muchas regiones tienen los medios para combatir esta contaminación a nivel local.
Todas las amenazas descritas en las secciones anteriores, consideradas como una crisis global, han sido objeto de varios intentos de advertencia. El 13 de noviembre de 2017, la revista BioScience y el periódico Le Monde publican un manifiesto firmado por 15 364 científicos de 184 países, señalando que desde el llamamiento World Scientists' Warning to Humanity lanzado en 1992 por la Unión de Científicos Preocupados y más de 1.700 científicos independientes, incluida la mayoría de los ganadores de los premios Nobel de la ciencia de entonces:
"No sólo la humanidad ha fallado en hacer progresos suficientes para abordar estos desafíos medioambientales anunciados, pero es muy preocupante ver que la mayoría de ellos han empeorado considerablemente". Y concluyen:
"Para evitar la miseria generalizada y una pérdida catastrófica de la biodiversidad, la humanidad debe adoptar una alternativa más sostenible ambientalmente que la práctica que hoy es propia".
Guerras y destrucción masiva
El escenario que más se ha estudiado es el de una guerra nuclear. Aunque la probabilidad anual de tal guerra es baja, Martin Hellman señaló en 1985 que si esta probabilidad permanece constante o no disminuye lo suficientemente rápido, la guerra es inevitable a largo plazo e inevitablemente llegará el día en que se agotará la suerte de la civilización. Durante la crisis de los misiles en Cuba, Kennedy estimó las posibilidades de una guerra nuclear "entre una sobre tres y una sobre dos".
En 2015, los Estados Unidos y Rusia tienen un arsenal combinado de 14 700 armas nucleares y, teniendo en cuenta otras potencias nucleares, existen 15 700 armas nucleares en el mundo, un poder destructivo total de aproximadamente 5.000 megatones (Mt), 250 000 veces más que la bomba de Hiroshima, que es solo una fracción del arsenal de la Guerra Fría. Sin embargo, estas cifras explican las estimaciones pesimistas simbolizados por el Reloj del Apocalipsis, que fue avanzado en 2018 para reflejar la preocupación por la incapacidad de los dirigentes mundiales para hacer frente a las amenazas inminentes de una guerra nuclear.
El público en general a menudo identificó la guerra nuclear con el " fin del mundo ", pero hasta principios de la década de 1980, los líderes y los expertos consideraron que había un pequeño riesgo de extinción completa de la humanidad como resultado de tal guerra: en una famosa declaración de 1957, Mao Zedong explicó que no tenía miedo de una guerra nuclear, a la cual "muchos chinos sobrevivirían"; en 1982, Brian Martin estimó que un intercambio de bombas entre los Estados Unidos y la URSS podría matar directamente de 400 a 450 millones de personas, y tal vez unos cientos de millones más de personas debido a las consecuencias, especialmente en el hemisferio norte, "apenas un poco más del 10 % de la humanidad". Sin embargo, a partir de 1983, los escenarios más pesimistas, teniendo en cuenta la noción de invierno nuclear, llevaron al miedo, al menos, a una destrucción completa de la civilización en este caso, debido en particular a la imposibilidad de la agricultura por varios años.
Las armas del Apocalipsis son una forma definitiva del concepto de disuasión nuclear. Estas son armas suicidas que garantizan que un agresor hipotético perezca con el atacante (y con el resto de la humanidad). Son técnicamente factibles (por ejemplo, en forma de gigantescas bombas H de solución salina de cobalto), pero el concepto se abandonó a principios de la década de 1960 (esencialmente porque, por su propia naturaleza, eran una espada de Damocles para su propietario) y ya no forman parte de los riesgos existenciales seriamente considerados.
Otros tipos de armas y conflictos pueden llevar a riesgos catastróficos globales, en particular el uso de armas de destrucción masiva ( químicas y biológicas ), pero también ciertas formas de bioterrorismo (porque es probable que desencadenen pandemias incontrolables).
Riesgos sistémicos
Aunque las crisis financieras, como la Gran Depresión, a menudo tuvieron un carácter global en el pasado, hasta ahora no podemos hablar del riesgo catastrófico global en sentido estricto. Pero la aceleración de las comunicaciones y el uso masivo de Internet ahora hacen posible dos tipos de colapso: por un lado, una desestabilización de los mecanismos financieros, provocada, por ejemplo, por una amplificación de las fluctuaciones del mercado de valores que escapan a cualquier control (riesgo asociado a las transacciones de alta frecuencia durante el desplome repentino de 2010), o por una crisis de confianza similar a la crisis de las hipotecas subprime, por otra parte, una pérdida física de información o de valores, relacionada con una ruptura de Internet.
El primer riesgo es difícil de medir (y, en particular, mal asegurable). Sin embargo, Internet ha sido diseñado para resistir la mayoría de los posibles ataques o fallas de funcionamiento, y es que a principios del siglo XXI, se observó que una llamarada solar lo suficientemente potente, como la de 1859, como para interrumpir suficientemente comunicaciones y la electrónica para reenviar la civilización al siglo XVIII.
De manera más general, la globalización y la interconexión de los diversos sistemas hacen que a partir de ahora una crisis local o sobre un solo recurso pueda, por efecto dominó, provocar una catástrofe global (se trata de "colapsos" ( crisis ) en el sentido de Nick Bostrom). La más conocida de estas crisis es la llegada del pico del petróleo (y, en particular, sus consecuencias para la agricultura), pero se anticipa durante varias décadas, y serían solo efectos indirectos inesperados lo que podría convertirlo en un colapso global.
Otros escenarios de crisis sistémicas de este tipo han sido menos estudiados y podrían tener consecuencias difíciles de reparar. Podemos mencionar la " crisis del agua ", que podría llevar a una guerra entre China, India y Pakistán (tres potencias nucleares) para el control de los recursos hídricos del Himalaya, o la escasez de tierras raras, a priori de poca importancia, pero que puede provocar tensiones en la producción de productos tan diversos como bombillas de bajo consumo, automóviles eléctricos o turbinas eólicas, con importantes consecuencias para la transición energética.
Hacia 1990, Joseph Tainter desarrolló análisis más generales de estos escenarios; en su trabajo más conocido, El colapso de las sociedades complejas, donde estudia el colapso de la civilización maya, la civilización Anasazi y el Imperio Romano, en términos de la teoría de redes, economía de la energía y teoría de la complejidad. Aunque estas crisis son el resultado de una serie de desastres locales, no inevitables y en las que podemos esperar encontrar caídas más o menos rápidas, Victor Clube y Bill Napier señalaron que los escenarios de desastres sistémicos brutales (los "shocks") provocados por los accidentes locales también son posibles, y dejan solo un pequeño margen de maniobra antes de convertirse en globales.
Inteligencia artificial
En 1993, Vernor Vinge popularizó, bajo el nombre de singularidad tecnológica, la idea de que si el hombre logra construir una inteligencia artificial (IA) superior a él, esta podrá construir otra aún más alta. Esta retroalimentación positiva nos llevaría rápidamente a una superinteligencia inconcebible para nosotros. Vinge señala que esto podría ser peligroso para los humanos. Esta idea da nacimiento a un movimiento social, el singularitarismo.
Más específicamente, se ha sugerido que las computadoras capaces de aprender podrían convertirse rápidamente en superinteligentes y emprender acciones no planificadas por su programación, incluso hostiles; o que los robots puedan competir con la humanidad. También es posible que la primera superinteligencia aparente elimine a todas las demás, pudiendo también manipular cualquier inteligencia inferior para lograr sus objetivos.Nick Bostrom llama a esta pregunta el "problema del control".
Stephen Hawking, Bill Gates y Elon Musk han expresado temores de que se hayan desarrollado inteligencias artificiales hasta el punto de estar fuera de control, Hawking agregó que esto podría significar "el fin de la humanidad". Los expertos participaron en una conferencia en 2009 organizada por la Asociación para el Avance de la Inteligencia Artificial para discutir la posibilidad de que las computadoras y los robots obtengan algún tipo de autonomía y la amenaza que esta eventualidad podría presentar. Además del hecho de que algunos robots han adquirido varias formas de semi-autonomía, que van desde buscar tomas para recargarse hasta la elección de objetivos para atacar, señalan que algunos virus informáticos pueden luchar activamente contra su eliminación y alcanzar "el nivel de inteligencia de las cucarachas". Estos expertos agregan que si una apariencia de conciencia como la que a menudo representa la ciencia ficción es poco probable, no se excluyen otros problemas o peligros.
Más recientemente, varios grupos científicos han observado una aceleración de los avances en inteligencia artificial (incluida la victoria de AlphaGo contra Lee Sedol en marzo de 2016, que se ha convertido en uno de los signos más visibles) que podrían generar nuevas preocupaciones.Eliezer Yudkowsky piensa que los riesgos creados por la inteligencia artificial son más impredecibles que todos los otros tipos de riesgos y agrega que la investigación sobre este tema está sesgada por el antropomorfismo. En las personas que basan su análisis de la inteligencia artificial en su propia inteligencia, esto les lleva a subestimar las posibilidades de la IA. Además, separa los riesgos en problemas técnicos (algoritmos imperfectos o defectuosos que impiden que la IA logre sus objetivos), y fallos "filosóficos", que son mucho más perniciosos y difíciles de controlar, donde los objetivos de la IA son realmente perjudiciales para la humanidad. Nick Bostrom se unió a esta posición publicando en 2014 Superinteligencia: caminos, peligros, estrategias, así como Stuart Russell en con su libro Human Compatible: AI and the Problem of Control de 2019. Stuart es uno de los mayores expertos en inteligencia artificial, habiendo escrito junto con Peter Norvig el libro de texto más popular en el campo: Artificial Intelligence: A Modern Approach, utilizado en más de 1.500 universidades de 135 países.
Biotecnología
La biotecnología puede crear un riesgo de catástrofe global al desarrollar agentes infecciosos naturales o artificiales, que luego podrían propagarse mediante el uso de armas biológicas, ataques terroristas o por accidente, lo que podría causar pandemias.
Se observa un crecimiento exponencial en el sector biotecnológico. Noun y Chyba predicen que esto llevará a una gran mejora en estas técnicas en las próximas décadas. Creen que los riesgos correspondientes de la guerra biológica y el bioterrorismo son mayores que los de las armas nucleares o químicas, porque los agentes infecciosos son más fáciles de producir y su producción en masa es difícil de controlar, y las capacidades tecnológicas correspondientes se vuelven accesibles. incluso a individuos aislados. Hasta ahora, los usos terroristas de la biotecnología han sido raros, pero no está claro si esto se debe a la falta de recursos o la falta de motivación.
El principal riesgo esperado en el futuro es la aparición de agentes infecciosos genéticamente modificados o totalmente artificiales. En general, se cree que la virulencia de los agentes infecciosos naturales, que han evolucionado conjuntamente con sus hospedadores, está limitada por la necesidad de que los hospedadores sobrevivan lo suficiente para transmitir el agente, pero es posible modificar genéticamente estos agentes, (voluntaria o accidentalmente) para cambiar su virulencia y otras características. Por ejemplo, un grupo de investigadores australianos modificó involuntariamente las características del virus de la viruela del ratón al tratar de desarrollar un virus que esterilizaría a los roedores. El virus modificado se ha vuelto extremadamente letal incluso en ratones vacunados o naturalmente resistentes. Si no están estrictamente reguladas, las tecnologías que permiten la manipulación genética de las características de los virus pueden estar disponibles en el futuro.
Noun y Chyba proponen tres categorías de medidas para reducir los riesgos de pandemias (naturales o artificiales): regulación o prohibición de investigaciones potencialmente peligrosas, mejora de la vigilancia de la salud y desarrollo de medios para combatir la propagación de epidemias (por ejemplo, mediante la producción de vacunas más eficaces y su distribución más amplia).
Nanotecnología
Muchas nanotecnologías están en desarrollo o ya se utilizan. La única que parece representar un riesgo significativo de catástrofe global es el ensamblaje molecular, una técnica que permitiría construir estructuras complejas con precisión atómica. El ensamblaje molecular es por el momento un concepto puramente teórico que requiere avances significativos en nanotecnología, pero que podría permitir producir objetos sofisticados en grandes cantidades y a bajo costo en nanofábricas del tamaño de impresoras 3D ( que son una versión gruesa y macroscópica del mismo concepto). Cuando estas nanofábricas pueden producir otras, la producción puede estar limitada solo por la cantidad de recursos relativamente abundantes, como materias primas, energía y software. Así podrían, entre otras cosas, fabricar a un precio bajo armas sofisticadas, autónomas y duraderas.
Chris Phoenix clasifica los riesgos de catastróficos creados por la nanotecnología en tres categorías:
- Acelerar el desarrollo de otras tecnologías, como la inteligencia artificial o la biotecnología.
- Producción en masa de objetos potencialmente peligrosos, creando una dinámica de riesgo, como la carrera de armamentos.
- Creación de procesos de reproducción sin freno, con efectos destructivos.
Sin embargo, también señala que es probable que las nanotecnologías reduzcan muchos otros riesgos catastróficos globales.
Varios investigadores dicen que la mayoría de estos riesgos provienen del potencial militar y la carrera de armamentos. Se han sugerido varias razones por las cuales estas técnicas podrían conducir a una escalada inestable (a diferencia de, por ejemplo, las armas nucleares):
- Un gran número de actores pueden verse tentados a participar en la escalada, siendo el costo correspondiente bajo;
- La fabricación de armas por este método es barata y fácil de camuflar;
- La dificultad de controlar las intenciones de los otros actores empuja a armarse con prudencia y desencadenar ataques preventivos;
- El ensamblaje molecular disminuye la dependencia del comercio internacional, que es un factor de paz;
- Una guerra de agresión se vuelve económicamente más interesante para el agresor, ya que la fabricación de armas es barata y los humanos menos necesarios en el campo de batalla.
La autorregulación de todos los actores, ya sean estatales o no, parece difícil de lograr, las medidas para limitar los riesgos de armamento y guerra se propusieron principalmente en el marco del multilateralismo. Se debe desarrollar una infraestructura internacional, tal vez análoga a la Agencia Internacional de Energía Atómica y dedicada específicamente a las nanotecnologías, que otorgue más poder al nivel supranacional. También es posible fomentar el desarrollo tecnológico diferencial, favoreciendo las tecnologías defensivas.
Otras catástrofes globales debidas a las nanotecnologías son concebibles. Así, en 1986, en su libro Engines of Creation, Eric Drexler consideró la noción de plaga gris, un tema a menudo tratado por los medios y la ciencia ficción. Este escenario involucra pequeños robots autorreplicantes que destruirían toda la biosfera al utilizarla como fuente de energía y materiales. Sin embargo, ahora los expertos en este campo (incluido Drexler) han desacreditado este escenario; Según Chris Phoenix una plaga gris no podría ser más que el resultado de un proceso delicado y deliberado, y no de un accidente.
Accidentes relacionados con una tecnología experimental
La biotecnología podría conducir al desarrollo de pandemias incurables, las guerras químicas conducen a una contaminación irremediable, las nanotecnologías producen plagas grises catastróficas. De manera más general, Nick Bostrom sugirió que cada nueva tecnología puede revelar el riesgo impensable antes, y que en su búsqueda del conocimiento, la humanidad podría crear aún inadvertidamente alguna capaz de destruir el sistema de la Tierra, e incluso el sistema solar, en concreto la investigación en física de partículas puede crear condiciones excepcionales con consecuencias catastróficas.
Ya, a algunos científicos les preocupaba que la primera prueba nuclear pudiera incendiar la atmósfera , y más recientemente, ha habido especulaciones alarmistas sobre la posible producción de micro agujeros negros, strangelets u otros estados físicos anormales en el Gran colisionador de hadrones, y considerando una reacción en cadena que podría llevar al desastre. Estos temores particulares obviamente no se materializaron, y ya se habían refutado mediante el cálculo, pero cada nuevo avance tecnológico puede dar lugar a temores similares.
Riesgos no antropogénicos
Los riesgos descritos en esta sección corresponden a riesgos independientes de acciones humanas. La mayoría, con la excepción principalmente de las pandemias, también están escasamente mitigados por posibles medidas preventivas. Su probabilidad anual, comparada con la de los riesgos de origen humano, es, sin embargo, muy a menudo estimada como insignificante.
Pandemia global
La mortalidad pandémica es igual a la virulencia del agente infeccioso multiplicada por el número total de personas infectadas. En general, se supone que existe un límite a la virulencia de los agentes infecciosos que han evolucionado conjuntamente con sus anfitriones, porque un agente que mata a su huésped con demasiada rapidez no tendrá tiempo para propagarse. Este modelo simple predice que si no existe un vínculo entre la virulencia y el modo de transmisión, los agentes infecciosos evolucionarán hacia formas menos virulentas y de rápida propagación. Sin embargo, esta hipótesis no siempre se verifica, y cuando existe una relación entre la virulencia y la transmisión, por ejemplo, debido a que la descomposición del cadáver libera el agente infeccioso, pueden aparecer niveles altos de virulencia, limitados solo por otros factores, como las interacciones entre diferentes hospedadores (pulgas, ratas y humanos en el caso de plaga, por ejemplo). Además, si la pandemia es un fenómeno secundario relacionado con una zoonosis, la virulencia en los seres humanos puede ser total. Muchas pandemias históricas han tenido un efecto devastador en grandes poblaciones, la más conocida es la Peste Negra (entre 1347 y 1352) y la gripe de 1918; esto implica que una pandemia global podría representar una amenaza realista para la civilización.
La vigilancia de la salud actual hace que la probabilidad de una pandemia de este tipo sea bastante baja, al menos para los agentes infecciosos similares a los conocidos (y en particular no modificados por el uso de biotecnologías). Sin embargo, la posibilidad de que aparezca un nuevo agente patógeno (como en el caso de enfermedades emergentes), o de que una mutación haga que un virus como la gripe sea mucho más virulento, nunca se puede descartar. Un debilitamiento de los servicios de salud vinculados, por ejemplo, a una crisis económica también podría hacer que esta catástrofe mundial sea mucho más importante.
Sin estar directamente relacionados con las pandemias, la aparición de superbacterias resistentes a todos los antibióticos plantea nuevas amenazas de crisis para la salud. Por otro lado, las enfermedades como la obesidad o las alergias, aunque no son contagiosas, se describen metafóricamente como pandemias , y si se expandieran, podrían terminar ejerciendo presiones disgénicas significativas a escala global.
Cambio climático
El cambio climático es un cambio duradero en los climas globales. En un pasado relativamente reciente (geológicamente), la Tierra ha experimentado climas que van desde los períodos glaciales hasta episodios tan calientes como para crecer palmeras en la Antártida. Se supone además que los episodios de la llamada Glaciación global terrestre, donde todos los océanos estaban cubiertos de hielo, tuvieron lugar en un pasado mucho más remoto. Los cambios climáticos repentinos (en unas pocas décadas) se han producido a escala regional, por ejemplo durante la Pequeña Edad de Hielo o durante el óptimo climático medieval, pero el cambio climático global se ha producido lentamente, al menos desde principios del Cenozoico y el clima se ha vuelto aún más estable desde el final de la última era glacial hace diez mil años. Dado que la civilización (y en particular la agricultura) se ha desarrollado durante un período de climas estables, una variación natural hacia un nuevo régimen climático (más cálido o más frío) podría constituir un riesgo de catástrofe global.
El período actual (el Holoceno) se considera un episodio interglacial en medio de una oscilación bastante regular entre glaciaciones y deglaciaciones, de un período de aproximadamente 50 000 años, que se explica por la teoría astronómica de los paleoclimas. Una nueva glaciación sería sin duda un desastre global en el sentido de Bostrom, pero además el modelo no la predice para los próximos milenios. La intervención del calentamiento global probablemente cambiará la evolución de los climas, incluso puede llevar a la aparición de regímenes muy diferentes de los que la Tierra ha conocido en el pasado.
Vulcanismo
La erupción de un volcán , puede llevar a un invierno volcánico similar a un invierno nuclear, a través de una gran emisión de aerosoles que reduzcan la cantidad de luz solar que incide sobre la superficie terrestre. Un evento de este tipo, la erupción de Toba, ocurrió en Indonesia hace aproximadamente 71 500 años. Según la teoría del desastre de Toba, esta erupción podría haber reducido las poblaciones humanas a decenas de miles de personas.
La Caldera de Yellowstone es otro de estos supervolcanes, ya que ha experimentado al menos 142 erupciones formadoras de caldera en los últimos 17 millones de años, incluida una docena de supererupciones. En la última de estas erupciones, hace 640 000 años, las cenizas expulsadas cubrieron todos los Estados Unidos al oeste del Mississippi, así como el noroeste de México.
Este tipo de erupción tiene consecuencias importantes en el clima global, que puede llegar a provocar una glaciación si el sol permanece oculto por las cenizas, o por el contrario, un calentamiento global si son los gases de efecto invernadero los que prevalecen. En una escala menor, esto ocurrió en 1816 después de la erupción de Tambora, lo que resultó en un " año sin verano ".
Aunque no están sujetas al mismo mecanismo, las erupciones que dieron origen a las provincias magmáticas probablemente estén acompañadas (durante decenas o incluso cientos de miles de años) de emisiones de gas y polvo en una cantidad comparable a la de los supervolcanes. Siguen siendo mucho más raras (la más reciente, la del grupo basáltico de Columbia, que ocurrió hace unos quince millones de años), y en general se las considera responsables de las extinciones masivas más importantes, la extinción de los Pérmicos. Por ejemplo, la del Triásico se correlaciona con la formación de los traps siberianos. Esto es claramente un riesgo existencial, pero probablemente nos avisaría con milenios de anticipación.
Otros peligros geológicos
El campo magnético de la Tierra se ha invertido muchas veces durante su historia, dejando huellas particulares en las rocas del fondo del océano, permitiendo datar la fecha de estas inversiones. Actualmente son infrecuentes, ocurriendo la última hace 780 000 años. En el momento de la transición, el campo se debilita considerablemente, permitiendo que la radiación ( viento solar, erupciones solares, rayos cósmicos ) alcancen el suelo, poniendo en peligro la civilización al aumentar los cánceres, las mutaciones, etc. Estas teorías siguen siendo, sin embargo, actualmente desacreditadas parcialmente ya que el análisis estadístico no muestra correlación entre estas inversiones y las extinciones en masa.
Otro riesgo de desastre global es un megatsunami, una ola gigante que podría ser causada, por ejemplo, por el colapso de una isla volcánica. La probabilidad de este tipo de evento ha sido muy exagerada por los medios de comunicación y estos escenarios solo corresponden a catástrofes regionales. Sin embargo, un impacto cósmico que ocurra en el océano (como el correspondiente a la extinción de los dinosaurios) podría causar que un megatsunami que arrastre continentes enteros.[cita requerida]
Impacto cósmico
Varios asteroides han chocado con la Tierra durante su historia. El asteroide de Chicxulub, por ejemplo, es la causa más probable de la extinción de los dinosaurios no aviares hace 66 millones de años, al final del Cretácico. Un objeto de más de un kilómetro de diámetro que golpee la Tierra probablemente destruiría la civilización y, a partir de tres kilómetros, tendría una buena posibilidad de provocar la extinción de la humanidad. Se estima que estos impactos ocurren en promedio una vez por cada 500 000 años (los impactos de objetos grandes, que exceden los 10 kilómetros, son aproximadamente 100 veces menos frecuentes). El escenario de una colisión combina varias de las catástrofes globales vistas anteriormente: invierno de impacto, desencadenamiento de erupciones volcánicas y megatsunami (si el impacto tiene lugar en el océano), pero también terremotos, tormentas de fuego, etc.
Otras amenazas cósmicas
Aparte de los impactos de asteroides y posiblemente las erupciones solares excepcionales, otras amenazas identificables generalmente corresponden a escenarios a muy largo plazo, o muy poca plausibilidad y no es posible en el futuro previsible protegerse de ellas. Por lo tanto, el Sol pasará inevitablemente a través de una fase de expansión (transformándolo en un gigante rojo que posiblemente abarcará la órbita de la Tierra) en aproximadamente 7 mil millones de años. De manera similar, las simulaciones de movimientos planetarios a largo plazo muestran que una colisión entre Mercurio y la Tierra (un riesgo existencial para cualquier forma de vida) tiene una probabilidad no insignificante de ocurrir dentro de unos pocos miles de millones de años.
Muchos eventos de alta energía, como los estallidos de rayos gamma, supernovas e hipernovas, plantearían riesgos existenciales si ocurrieran a unos pocos cientos de años luz de la Tierra (una hipernova podría ser la causa de la extinción del ordovícico-siluriano ). Sin embargo, se estima que la probabilidad de tal ocurrencia es muy baja.
Otros riesgos, como el paso del sistema solar a través de una nebulosa oscura o una nube de polvo cósmico (que podría provocar un cambio climático significativo), o el acercamiento de otra estrella a menos de un año luz del sol, también se estima que tienen una probabilidad insignificante durante los próximos milenios.
Vida extraterrestre
Desde La guerra de los mundos, la vida extraterrestre y sus interacciones con la especie humana son temas recurrentes de la ciencia ficción. Sin embargo, aunque científicos como Carl Sagan creen que su existencia (pero no necesariamente la existencia de inteligencia alienígena) es muy probable, las distancias interestelares son tales que una interacción con la humanidad parece poco probable. El único riesgo que puede considerarse razonablemente es el de la contaminación accidental (por ejemplo, por las bacterias de Marte), e incluso este escenario se considera muy poco realista.
Estimación de la probabilidad de riesgo
Algunos peligros que no dependen de acciones humanas tienen una probabilidad que puede calcularse con precisión. Por lo tanto, la probabilidad de que la humanidad desaparezca durante el próximo siglo debido a un impacto cósmico sería una posibilidad entre un millón (aunque algunos científicos dicen que el riesgo podría ser mucho mayor , ). De manera similar, la frecuencia de erupciones volcánicas de magnitud suficiente para crear una catástrofe climática, similar a la resultante de la explosión de Toba (que podría haber causado la casi extinción de la humanidad ) se estima en una por cada 50 000 años.
El peligro relativo que representan otras amenazas es mucho más difícil de estimar. En 2008, en la Conferencia de la Universidad de Oxford sobre riesgos catastróficos globales, un grupo de expertos reputados que reunieron su experiencia en diferentes tipos de riesgo sugirieron un 19 % de probabilidad de extinción de la especie. en el próximo siglo (sin embargo, el informe de la conferencia advierte que el método utilizado para sintetizar las respuestas dadas no tiene en cuenta correctamente la falta de respuestas a ciertas preguntas ). El informe anual de 2016 de la Global Challenges Foundation señala que incluso las estimaciones más optimistas implican que el estadounidense promedio tiene cinco veces más probabilidades de morir en una catástrofe global que en un accidente automovilístico.
La estimación precisa de estos riesgos presenta considerables dificultades metodológicas. La mayor atención se ha prestado a los riesgos durante los próximos cien años, pero los pronósticos de este tiempo son difíciles. Si las amenazas planteadas por la naturaleza son relativamente constantes (aunque pueden descubrirse nuevos riesgos), es probable que las amenazas antropogénicas cambien dramáticamente con el desarrollo de nuevas tecnologías. La capacidad de los expertos para predecir el futuro en tales escalas de tiempo en el pasado ha demostrado ser bastante limitada. Además, además de los aspectos tecnológicos de estas nuevas amenazas, el análisis de su impacto en la sociedad y su capacidad para defenderla está limitado por las dificultades metodológicas de las ciencias sociales y la velocidad con la que las relaciones internacionales pueden cambiar.
Los riesgos existenciales plantean otros problemas de estimación, debido a un importante sesgo de selección, el principio antrópico. A diferencia de la mayoría de las otras catástrofes, el hecho de que nunca se haya producido una extinción masiva en relación con la humanidad en el pasado no da información sobre la probabilidad de que ocurra tal evento en el futuro, porque, por definición, una extinción no deja ningún observador (humano), y así, aunque la catástrofe que constituye un riesgo existencial era muy probable, el hecho de que la humanidad sobreviviera solo significaría que tuvo mucha suerte. Sin embargo, sigue siendo posible estimar estos riesgos utilizando eventos similares que han dejado su huella, como los cinco episodios de extinción principales que precedieron a la aparición de los humanos; a veces también es posible calcular los efectos de una catástrofe tecnológica en particular, por ejemplo, un invierno nuclear.
Paradoja de Fermi
En 1950, el genial físico italiano Enrico Fermi se preguntó por qué la humanidad todavía no se había encontrado con civilizaciones extraterrestres. Su pregunta era, "¿dónde están todos? Dada la edad del universo y su gran número de estrellas, la vida extraterrestre debe ser trivial, a menos que la Tierra sea muy atípica. Es esta la peculiaridad que se conoce como paradoja de Fermi.
Aunque no sea ampliamente aceptada, una explicación de la paradoja es la noción de riesgo existencial; más específicamente, la idea de que las civilizaciones que deberíamos estar observado (o quién nos pudo haber visitado) se destruyen antes de que apareciera la humanidad.
Importancia económica y ética de los riesgos existenciales
La reducción de los riesgos existenciales beneficia principalmente a las generaciones futuras. Según la estimación de su número, se puede considerar que una ligera disminución del riesgo tiene un gran valor moral. Derek Parfit dice que nuestros descendientes podrían sobrevivir otros cinco mil millones de años, hasta que la expansión del Sol haga que la Tierra sea inhabitable. Nick Bostrom incluso piensa que la colonización del espacio permitiría que un número astronómico de personas sobreviviera durante cientos de miles de millones de años. Es la comparación entre la población actual y esta gran cantidad de potenciales descendientes destruidos por la extinción lo que justifica que se haga todo lo posible para reducir los riesgos.
Estas posiciones no han sido muy disputadas, aunque desde un punto de vista económico, se debe tener en cuenta que el valor de un bien actual es más importante que el valor del mismo bien si solo se puede disfrutar en el futuro. El modelo más utilizado, el de descuento exponencial, podría hacer que estos beneficios futuros sean mucho menos significativos. Sin embargo, Jason Gaverick Matheny afirmó que este modelo es irrelevante para determinar el valor de la reducción de riesgos existenciales.
Algunos economistas han tratado de estimar la importancia de los riesgos de catástrofe global (pero no los riesgos existenciales). Martin Weitzman sostiene que la expectativa (en el sentido estadístico) del costo económico del cambio climático es significativa debido a situaciones en las que los modelos afectan una probabilidad baja pero causan daños catastróficos. En general, Richard Posner piensa que hacemos muy poco para mitigar los riesgos de catástrofes globales cuando son débiles y difíciles de estimar.
Además de los sesgos cognitivos que se analizan en la siguiente sección, también hay razones económicas por las que se hacen pocos esfuerzos para reducir los riesgos existenciales e incluso algunos riesgos de catástrofes globales no irreparables. Estos riesgos se refieren a un bien global, es decir que incluso si una gran potencia los reduce, beneficiará solo una pequeña parte de la ganancia correspondiente; además, la mayoría de estos beneficios serán recaudados por las generaciones futuras, quienes obviamente no tienen forma de pagar un seguro contra estos riesgos para las generaciones actuales.
Percepción de riesgos
De acuerdo con Eliezer Yudkowsky, muchos sesgos cognitivos pueden influir en cómo los individuos y los grupos perciben la importancia de los riesgos catastróficos globales, incluida la insensibilidad al alcance, la heurística de disponibilidad, el sesgo de representatividad, la heurística de la afectividad, y el efecto de exceso de confianza. Por lo tanto, la falta de sensibilidad en la medida hace que las personas a menudo estén más preocupadas por las amenazas individuales que las dirigidas a grupos más grandes (por lo que sus donaciones por causas altruistas no son proporcionales a la magnitud del problema ); es por eso que no consideran la extinción de la humanidad como un problema tan serio como debería ser. De manera similar, el sesgo de representatividad los lleva a minimizar las catástrofes que tienen poco que ver con los que han llegado a conocer, y a asumir que el daño que causarán no será mucho más serio.
A menudo se ha señalado que la mayoría de los riesgos antropogénicos mencionados anteriormente corresponden a mitos que a menudo son muy antiguos, los de Prometeo, Pandora y, más recientemente, el del aprendiz de brujo que es el más representativo. El simbolismo de los cuatro jinetes del Apocalipsis, los últimos tres que representan la Guerra, el Hambre y la Peste, ya está en el Antiguo Testamento en la forma de la incómoda elección ofrecida por Dios al rey David. Los diversos riesgos de revuelta de las máquinas aparecen en el mito del Golem y, combinados con las biotecnologías, en la historia del monstruo de Frankenstein. Por otro lado, se ha sugerido que las narrativas de desastres de varias tradiciones religiosas (donde están más relacionadas con la ira de las deidades) corresponderían a recuerdos de catástrofes reales (por ejemplo, el Diluvio estaría vinculado a la reconexión del Mar de Mármara con el Mar Negro; bajo el nombre de catastrofismo coherente, Victor Clube y Bill Napier desarrollaron la hipótesis de que las lluvias de meteoros catastróficos han dado a luz a muchos mitos cosmológicos, que van desde la historia de la destrucción de Sodoma y Gomorra (tesis también defendida por Marie - Agnes Courty) a las descripciones del Apocalipsis. Sin embargo, sus ideas son poco aceptadas por la comunidad científica.
La existencia de estas interpretaciones míticas, así como muchas de las profecías del fin del mundo, facilita un fenómeno de negativa parcial o total a tener en cuenta estos riesgos catastróficos, conocido como síndrome de Casandra. Si bien los riesgos antropogénicos se minimizan al atribuirlos a temores irracionales, las catástrofes descritas en los mitos se consideran exageradas por la ignorancia y la deformación de los recuerdos.
El análisis de los riesgos causados por los humanos sufre de dos sesgos opuestos: los informantes tienden a exagerar el riesgo para hacerse oír, incluso a denunciar riesgos imaginarios en nombre del principio de precaución. Los poderosos intereses económicos, por otro lado, tratan de minimizar los riesgos asociados con sus actividades, como lo demuestra, por ejemplo, el caso del Instituto Heartland, y más generalmente al analizar las estrategias de desinformación expuestas en Les Mercaderes de la duda.
Dando una interpretación racional al mito de la edad de oro, Jared Diamond finalmente señala que ciertas catástrofes (los "colapsos" de Nick Bostrom) pueden pasar desapercibidas a las sociedades que las sufren, por falta de una memoria histórica suficiente; por ejemplo, explica el desastre ecológico sufrido por los habitantes de la Isla de Pascua.
Organizaciones de evaluación de riesgos
El Boletín de los científicos atómicos es una de las organizaciones más antiguas preocupadas por los riesgos globales. Fue fundada en 1945 después de que el bombardeo de Hiroshima hiciera al público consciente de los peligros de las armas atómicas. Estudia los riesgos asociados con las tecnologías nucleares y las armas, y es famoso por su gestión del Reloj del fin del mundo desde 1947.
En 1972, el trabajo del Club de Roma dio lugar a un informe famoso, ¿Detener el crecimiento?, que alerta contra el riesgo de agotamiento de recursos naturales y desastres ecológicos antes de finales del siglo XXI. Publicado a mediados de los treinta años gloriosos, el informe es impugnado enérgicamente en cuanto se publica por su pesimismo, pero sus supuestos se consideran bastante optimistas cuarenta años después de su publicación por el Club: El agotamiento en realidad ocurriría antes de mediados del siglo XXI.
Desde principios de la década de los Años 2000, un número cada vez mayor de científicos, filósofos y multimillonarios de las nuevas tecnologías han creado organizaciones independientes o académicamente dedicadas al análisis global de riesgo de catástrofes.
Dichas organizaciones no gubernamentales (ONG) incluyen el Instituto de Investigación de Inteligencia de las Máquinas (establecido en el 2000), cuyo objetivo es reducir el riesgo de desastres relacionados con la inteligencia artificial y la singularidad tecnológica, y del cual Peter Thiel es un donante importante. Más recientemente, la Fundación Lifeboat (establecida en 2006) financia investigaciones para prevenir un desastre tecnológico, y la mayor parte de los fondos se destina a proyectos universitarios. El Future of Life Institute (FLI) se creó en 2014 para buscar los medios de salvaguardar la humanidad frente a nuevos desafíos tecnológicos. Elon Musk es uno de los mayores donantes. En 2017 se constituyó la Alianza para Alimentar a la Tierra en Desastres (ALLFED), para continuar el trabajo de Denkenberger y otros respecto a mejorar la preparación y resiliencia ante catástrofes alimentarias globales extremas.
Entre las organizaciones subordinadas a las universidades están el Instituto del futuro de la Humanidad, fundado en 2005 por Nick Bostrom en la Universidad de Oxford para llevar a cabo la investigación sobre el futuro a largo plazo de la humanidad y los riesgos existenciales, el Centro para el Estudio del Riesgo Existencial (CSER), fundado en 2012 en la Universidad de Cambridge (y del cual Stephen Hawking era consultor) para estudiar cuatro riesgos antropogénicos: inteligencia artificial, biotecnologías, calentamiento global y los riesgos de la guerra; o en la Universidad de Stanford, el Centro para la Seguridad Internacional y la Cooperación, que estudia las políticas de cooperación para reducir el riesgo global de desastres.
Finalmente, otros grupos de evaluación de riesgos pertenecen a organizaciones gubernamentales. Por ejemplo, la Organización Mundial de la Salud (OMS) tiene un departamento llamado Alerta y Respuesta Global (GAR), que es responsable de la coordinación entre los Estados Miembros en caso de una pandemia. La Agencia de los Estados Unidos para el Desarrollo Internacional (USAID) tiene un programa similar. El Laboratorio Nacional Lawrence Livermore tiene una división, la Dirección Principal de Seguridad Global para estudiar asuntos gubernamentales, tales como la bioseguridad, la acción contra el terrorismo, etc.
Precauciones y prevención.
El concepto de gobernanza global que respeta los límites planetarios se ha propuesto como un enfoque para la reducción del riesgo de desastres. En particular, el campo de la geoingeniería planea manipular el entorno global para combatir los cambios antropogénicos en la composición atmosférica. Se han explorado técnicas integrales de almacenamiento y conservación de alimentos, pero sus costos serían altos y podrían agravar las consecuencias de la desnutrición. David Denkenberger y Joshua Pearce han sugerido el uso de alimentos alternativos para reducir el riesgo de inanición relacionada con catástrofes globales, como un invierno nuclear o un cambio climático repentino, como la conversión de la biomasa de la madera en productos comestibles; sin embargo, se necesitará mucho progreso en esta área para garantizar que estos métodos permitan que una parte significativa de la población sobreviva.
Otras sugerencias de reducción de riesgos, como las estrategias de desviación de asteroides para contrarrestar el riesgo de impacto, o el desarme nuclear, son económica o políticamente difíciles de implementar. Finalmente, la colonización del espacio es otra propuesta hecha para aumentar las posibilidades de supervivencia ante un riesgo existencial, pero las soluciones de este tipo, actualmente inaccesibles, sin duda requerirán, entre otras cosas, el uso a gran escala de la ingeniería.
Entre las precauciones realmente tomadas individual o colectivamente, se pueden mencionar:
- El establecimiento de reservas de alimentos (planeadas para varios años) y otros recursos para los supervivientes en el marco de, por ejemplo, la construcción de refugios antiatómicos.
- La Reserva Mundial de Semillas de Svalbard, una bóveda subterránea en la isla noruega de Spitsbergen, destinada a mantener seguras las semillas de todos los cultivos de alimentos del mundo, preservando así la diversidad genética. Algunas de estas semillas deben conservarse durante varios miles de años. En mayo de 2017, la bóveda se inundó con el derretimiento del permafrost debido al calentamiento global, sin dañar las reservas de semillas.
Análisis y críticas
La importancia de los riesgos detallados en las secciones anteriores rara vez se niega, aunque los riesgos para los humanos a menudo se minimizan; sin embargo, los análisis de Nick Bostrom han sido criticados desde varias perspectivas distintas.
Críticas técnicas
Muchos de los riesgos mencionados por Nick Bostrom en sus libros se consideran exagerados (o imaginarios), o corresponden a escalas de tiempo tan amplias que parece un tanto absurdo considerarlos con amenazas casi inmediatas. Además, los cálculos de probabilidad, esperanza o utilidad son difíciles o están mal definidos para este tipo de situación, como lo demuestran, por ejemplo, las paradojas como el argumento del apocalipsis, como lo reconoce el propio Nick Bostrom. En particular, ha desarrollado un argumento ético que indica que el número exorbitante de nuestros descendientes condenado por una catástrofe existencial justifica el uso de todos los medios imaginables para disminuir, si acaso, la probabilidad de este accidente; sin embargo, los cálculos en los que se basa se han disputado y este argumento bien puede ser una falacia.
Nick Bostrom y Max Tegmark publicaron en 2005 un análisis del riesgo de inestabilidad de todo el universo. Independientemente de la validez de sus cálculos (que tienden a mostrar que el riesgo es muy bajo), uno puede preguntarse si realmente tiene significado hablar de una catástrofe de la que nadie sería advertido de antemano, y que no dejaría ningún observador. En una discusión similar sobre el riesgo de una reacción en cadena que envolviera toda la atmósfera, un amigo respondió a las inquietudes de Richard Hamming con: No te preocupes Hamming, no quedará nadie para maldecirte.
Posiciones filosóficas
Los análisis de Nick Bostrom se basan en el transhumanismo, una ideología que defiende el uso de la ciencia y la tecnología para mejorar las características físicas y mentales de los seres humanos; por lo tanto, considera que todo lo que podría impedir a la humanidad desarrollar plenamente su potencial es un riesgo existencial.
Esta posición ha sido severamente criticada, en parte porque conduce a la negación de los valores a los que se une la humanidad actual, en nombre de los valores futuros hipotéticos. Steve Fuller señala en particular que si un desastre global no destruye a toda la humanidad, los sobrevivientes pueden estimar legítimamente en algunos casos que su situación ha mejorado.
En la ficción
Literatura
Los escenarios de desastre global aparecen en los mitos más antiguos conocidos. un diluvio que ahoga a todos los seres vivos en la Epopeya de Gilgamesh, destrucción por hielo, agua o fuego en el mito nórdico de Ragnarok, la lista de las diez plagas de Egipto, etc. Pero ninguna de estas historias, ni las propuestas por la ciencia ficción hasta alrededor de 1950, se preocupan por las probabilidades científicas o sociológicas. Las descripciones de las distopías (correspondientes a los "aullidos" de Nick Bostrom ), con la notable excepción de 1984, también prestan poca atención a la coherencia y viabilidad de los sistemas que proponen.
Después de Hiroshima, se está desarrollando una abundante literatura post-apocalíptica, que incluye trabajos no clasificados en el campo de la ciencia ficción, como Malevil, pero la mayoría de estas novelas se centran en la cuestión de la supervivencia y no en las causas del desastre (casi siempre nuclear). En 1985, Jacques Goimard explicará la popularidad de estas historias por el "deseo de derrumbarse".
A principios de la década de 1970, surgieron descripciones de desastres ambientales descritos con realismo. Por ejemplo John Brunner publicó All in Zanzibar (1968) y The Blind Herd (1972), denunciando respectivamente los peligros de la superpoblación y la contaminación, y afirmando ser científicamente irreprochables; se basa en una documentación muy actualizada, que refleja los análisis de los movimientos ecologistas iniciales, y es sorprendentemente precisa en sus predicciones.
Las novelas que describen desastres debidos a las nuevas tecnologías (inteligencia artificial, biotecnologías, nanotecnologías, etc.) no aparecen antes de 1990 y siguen siendo marginales. Muchos de los autores están más preocupados, como en las novelas sobre cultura de Iain Banks, sobre cómo los humanos podrían adaptarse a estas tecnologías, en universos inspirados en ideas transhumanistas.
Cine
Los desastres han sido un tema de elección desde los inicios de la historia del cine (con, por ejemplo, en 1927 Metropolis, considerada como la primera película distópica), pero la dificultad de la realización de efectos especiales convincentes hace que los directores estén más apegados a la descripción de un mundo devastado, como en la serie de <i id="mwBBg">Mad Max</i>.
Desde la década de 1990, los enormes avances en efectos especiales digitales le dan a las películas un nuevo aliento: El Día de la Independencia relata una invasión extraterrestre, el Volcano el estallido de un volcán en la ciudad, o el Armagedón que describe la destrucción de un asteroide que amenaza con el impacto. También podemos citar las películas de la serie Terminator y las de la serie Matrix (que ilustra la "revuelta de las máquinas"). En 2004, The Day After Roland Emmerich describe un repentino cambio climático. Sin embargo, todas estas películas han sido criticadas por su falta de realismo o probabilidad.
Más recientemente, otros tipos de desastres globales, especialmente pandemias, han sido objeto de películas menos exigentes y, de hecho, más realistas, siendo la película más famosa de este tipo Contagio.
Véase también
Notas
Control de autoridades |
|
---|
- Datos: Q1531622
- Multimedia: Existential risk / Q1531622