lunes, 27 de abril de 2020

RIESGOS EXISTENCIALES.



¿Qué pasa si Covid-19 no es nuestra mayor amenaza?


Andrew Anthony










Una fila de robots Pepper desarrollados por SoftBank Group Corp. Los robots humanoides se pueden programar para hacer muchas cosas, a menudo reemplazando o aumentando los trabajos humanos







Finalmente, la crisis coronavirus comienza a retroceder y volver a una aproximación de la normalidad - no importa lo social distanciado o la cantidad de lavado de manos que implica - podemos esperar algún tipo de iniciativa internacional para prevenir, o al menos limitar, la propagación del futuro virus letales. Como especie, somos bastante buenos para aprender de la experiencia reciente, es lo que se conoce como la heurística de disponibilidad: la tendencia a estimar la probabilidad de un evento en función de nuestra capacidad para recordar ejemplos.
























Pero como argumenta el filósofo moral Toby Ord en su nuevo libro, The Precipice, somos mucho menos expertos en anticipar posibles catástrofes que no tienen precedentes en la memoria viva. "Incluso cuando los expertos estiman una probabilidad significativa de un evento sin precedentes, tenemos grandes dificultades para creerlo hasta que lo veamos".





Este fue precisamente el problema con el coronavirus. Muchos científicos informados predijeron que era casi seguro que una epidemia global estallaría en algún momento en el futuro cercano. Además de las advertencias de legiones de virólogos y epidemiólogos, el fundador de Microsoft, Bill Gates, dio una Ted Talk ampliamente difundida en 2015 en la que detalló la amenaza de un virus asesino. Desde hace un tiempo, una pandemia ha sido una de las dos amenazas catastróficas más prominentes en el registro de riesgos (la otra es un ciberataque masivo)






Pero si algo aún no ha sucedido, existe una profunda tentación de actuar como si no fuera a suceder. Si eso es cierto de un evento, como esta pandemia, que matará solo a una pequeña fracción de la población mundial, es aún más el caso de lo que se conoce como amenazas existenciales. Hay dos definiciones de amenaza existencial, aunque a menudo equivalen a la misma cosa. Una es algo que traerá un fin total a la humanidad, nos eliminará como especie de este planeta o de cualquier otro. El otro, solo un poco menos preocupante, es algo que conduce a un colapso irrevocable de la civilización, reduciendo la supervivencia de la humanidad a un estado de existencia prehistórico.

Toby Ord, australiano, del Instituto de Futuro de la Humanidad de Oxford, es uno de los pocos académicos que trabajan en el campo de la evaluación de riesgos existenciales. Es una disciplina que abarca todo, desde explosiones estelares hasta microbios rebeldes, desde supervolcanes hasta superinteligencia artificial.



Ord trabaja a través de cada amenaza potencial y examina la probabilidad de que ocurra en el próximo siglo. Por ejemplo, la probabilidad de que una supernova provoque una catástrofe en la Tierra estima que es inferior a uno en 50 millones. Incluso sumando todos los riesgos naturales (que incluyen los virus naturales), Ord sostiene que no equivalen al riesgo existencial presentado individualmente por la guerra nuclear o el calentamiento global.
La mayoría de las veces, el público en general, los gobiernos y otros académicos se contentan en gran medida con descuidar la mayoría de estos riesgos. Pocos de nosotros, después de todo, disfrutamos contemplando el apocalipsis.

En cualquier caso, los gobiernos, como nos recuerda el ex ministro conservador Oliver Letwin en su reciente libro Apocalypse How?, generalmente están preocupados por cuestiones más apremiantes que la muerte de la humanidad. Los problemas cotidianos, como los acuerdos comerciales, requieren atención urgente, mientras que los futuros hipotéticos, como ser asumidos por máquinas, siempre se pueden dejar para mañana.

Pero dado que estamos viviendo una pandemia mundial, ahora es quizás un momento oportuno para pensar qué se puede hacer para evitar un cataclismo futuro. Según Ord, el período que habitamos es un momento crítico en la historia de la humanidad. No solo existen los efectos potencialmente desastrosos del calentamiento global, sino que en la era nuclear también poseemos el poder de destruirnos en un instante, o al menos dejar la cuestión de la supervivencia de la civilización en el equilibrio.



Un trabajador de la salud espera para aceptar a un paciente con ébola en la República Democrática del Congo, 2018. El virus tenía una tasa de letalidad del 50%. 



Así, Ord cree que el próximo siglo será peligrosamente precario. Si tomamos las decisiones correctas, él prevé un futuro de florecimiento inimaginable. Si cometemos los equivocados, él sostiene que podríamos seguir el camino del dodo y los dinosaurios, saliendo del planeta para siempre.

Cuando hablo con Ord por Skype, le recuerdo las inquietantes probabilidades que le otorga a la humanidad en esta lucha de vida o muerte entre nuestro poder y nuestra sabiduría. "Dado todo lo que sé", escribe, "pongo el riesgo existencial de este siglo en torno a uno de cada seis".

En otras palabras, el siglo XXI es efectivamente un juego gigante de la ruleta rusa. Muchas personas retrocederán ante una predicción tan sombría, mientras que para otros alimentará la ansiedad que ya abunda en la sociedad.
Está de acuerdo, pero dice que ha tratado de presentar su modelado de la manera más tranquila y racional posible, asegurándose de tener en cuenta toda la evidencia que sugiere que los riesgos no son grandes. Uno de cada seis es su mejor estimación, teniendo en cuenta que hacemos una "puñalada decente" al enfrentar la amenaza de nuestra destrucción.
Si realmente nos lo proponemos y tenemos una respuesta igual a la amenaza, las probabilidades, dice, se reducen a algo más como 100-1 para nuestra extinción. Pero, igualmente, si seguimos ignorando la amenaza representada por los avances en áreas como la biotecnología y la inteligencia artificial, entonces el riesgo, dice, "sería más como uno de cada tres".

Martin Rees, cosmólogo y ex presidente de la Royal Society, cofundó el Centro para el Estudio del Riesgo Existencial en Cambridge. Durante mucho tiempo ha estado involucrado en crear conciencia sobre los inminentes desastres y se hace eco de la preocupación de Ord.  "Estoy preocupado", dice, "simplemente porque nuestro mundo está tan interconectado, que la magnitud de las peores catástrofes potenciales ha crecido sin precedentes, y muchos han estado en negación sobre ellas. Ignoramos la sabia máxima "lo desconocido no es lo mismo que lo improbable".

Letwin advierte sobre una dependencia excesiva en Internet y los sistemas satelitales, aliados con existencias limitadas de bienes y largas cadenas de suministro. Estas son condiciones ideales para el sabotaje y el colapso global. Como escribe, ominosamente: "Ha llegado el momento de reconocer que cada vez más partes de nuestras vidas, de la sociedad misma, dependen de redes cada vez menos integradas".

Las redes globales complejas ciertamente aumentan nuestra vulnerabilidad a las pandemias virales y los ataques cibernéticos, pero ninguno de esos resultados califica como un riesgo existencial grave en el libro de Ord. Las pandemias que le preocupan no son del tipo que estallan en los mercados húmedos de Wuhan, sino más bien las diseñadas en laboratorios biológicos.

Aunque Ord establece una distinción entre los riesgos naturales y antropogénicos (hechos por el hombre), argumenta que esta línea es bastante borrosa cuando se trata de patógenos, porque su proliferación se ha incrementado significativamente por la actividad humana, como la agricultura, el transporte, los complejos vínculos comerciales y nuestra congregación en ciudades densas.
Sin embargo, como muchos aspectos de la amenaza existencial, la idea de un patógeno diseñado parece demasiado de ciencia ficción, demasiado descabellada, para captar nuestra atención por mucho tiempo. El organismo internacional encargado de vigilar armas biológicas es la Convención de Armas Biológicas. Su presupuesto anual es de solo € 1.4millones. Como Ord señala con la debida burla, esa suma es menor que la facturación del restaurante McDonald's promedio.

Si eso es algo para pensar, Ord tiene otra comparación gastronómica que es aún más difícil de tragar. Si bien no está seguro exactamente de cuánto invierte el mundo para medir el riesgo existencial, confía, escribe, en que gastamos "más en helado cada año que en garantizar que las tecnologías que desarrollamos no nos destruyan".

Ord insiste en que no es un pesimista. Hay medidas constructivas a tomar. La humanidad, dice, está en su adolescencia, y como un adolescente que tiene la fuerza física de un adulto pero carece de previsión y paciencia, somos un peligro para nosotros mismos hasta que maduramos. Recomienda que, mientras tanto, reduzcamos el ritmo del desarrollo tecnológico para permitirnos comprender nuestras implicaciones y alcanzar una apreciación moral más avanzada de nuestra difícil situación.
Él es, después de todo, un filósofo moral. Es por eso que argumenta que es vital que, si la humanidad quiere sobrevivir, necesitamos un marco de referencia mucho más amplio para lo que es correcto y bueno. Por el momento, subestimamos enormemente el futuro y tenemos poca comprensión moral de cómo nuestras acciones pueden afectar a las miles de generaciones que podrían, o alternativamente, no podrían venir tras nosotros.
Nuestros descendientes, dice, están en la posición de los pueblos colonizados: están privados de sus derechos políticos, sin que se diga nada en las decisiones que se tomarán que los afectarán directamente o les impedirán existir.
"El hecho de que no puedan votar", dice, "no significa que no puedan ser representados".

Por supuesto, también hay problemas concretos que abordar, como el calentamiento global y la depredación ambiental. Ord reconoce que el cambio climático puede conducir a "una calamidad global de escala sin precedentes", pero no está convencido de que represente un riesgo existencial real para la humanidad (o la civilización). Eso no quiere decir que no sea una preocupación urgente: solo que nuestra supervivencia aún no está en juego.

Quizás la mayor amenaza inmediata es la abundancia continua de armas nucleares. Desde el final de la guerra fría, la carrera armamentista se ha revertido y el número de ojivas activas se redujo de más de 70.000 en la década de 1980 a alrededor de 3.750 en la actualidad. El inicio (el Tratado de Reducción de Armas Estratégicas), que fue fundamental para lograr la disminución, finalizará el próximo año. "Por lo que escucho en este momento", dice Ord, "los rusos y los estadounidenses no tienen planes de renovarlo, lo cual es una locura".

Tarde o temprano, todas las cuestiones de riesgo existencial se reducen a una comprensión y acuerdos globales. Eso es problemático, porque si bien nuestros sistemas económicos son internacionales, nuestros sistemas políticos siguen siendo casi totalmente nacionales o federales. En consecuencia, los problemas que afectan a todos no son propiedad de nadie en particular. Si la humanidad se aleja del precipicio, tendrá que aprender a reconocer sus lazos comunes como mayores que sus diferencias.

Actualmente se hacen muchas predicciones sobre cómo el coronavirus podría cambiar el mundo. El filósofo John Gray declaró recientemente que significó el fin de la hiperglobalización y la reafirmación de la importancia del estado nación.
"Al contrario del mantra progresivo", Gray escribió en un ensayo , "los problemas globales no siempre tienen soluciones globales ... la creencia de que esta crisis puede resolverse mediante un brote sin precedentes de cooperación internacional es el pensamiento mágico en su forma más pura".

Pero tampoco los países individuales pueden darse el lujo de darle la espalda al mundo, al menos no por mucho tiempo. Es posible que la pandemia no genere una cooperación internacional más profunda y una apreciación más aguda del hecho de que estamos, por así decirlo, todos juntos en ella. Sin embargo, en última instancia, tendremos que llegar a ese tipo de unidad si queremos evitar aflicciones mucho mayores en el futuro.
































No hay comentarios:

Publicar un comentario