¿Qué pasa si Covid-19 no es nuestra mayor
amenaza?
Andrew
Anthony
Una fila de robots Pepper desarrollados por SoftBank Group Corp. Los robots humanoides se pueden programar para hacer muchas cosas, a menudo reemplazando o aumentando los trabajos humanos
Finalmente, la crisis coronavirus comienza a retroceder y volver a una aproximación de la normalidad - no importa lo social distanciado o la cantidad de lavado de manos que implica - podemos esperar algún tipo de iniciativa internacional para prevenir, o al menos limitar, la propagación del futuro virus letales. Como especie, somos bastante buenos para aprender de la experiencia reciente, es lo que se conoce como la heurística de disponibilidad: la tendencia a estimar la probabilidad de un evento en función de nuestra capacidad para recordar ejemplos.
Pero como argumenta el filósofo moral Toby Ord en su nuevo libro, The Precipice, somos mucho menos expertos en anticipar posibles catástrofes que no tienen precedentes en la memoria viva. "Incluso cuando los expertos estiman una probabilidad significativa de un evento sin precedentes, tenemos grandes dificultades para creerlo hasta que lo veamos".
Este fue precisamente el problema con el coronavirus. Muchos científicos informados predijeron que era casi seguro que una epidemia global estallaría en algún momento en el futuro cercano. Además de las advertencias de legiones de virólogos y epidemiólogos, el fundador de Microsoft, Bill Gates, dio una Ted Talk ampliamente difundida en 2015 en la que detalló la amenaza de un virus asesino. Desde hace un tiempo, una pandemia ha sido una de las dos amenazas catastróficas más prominentes en el registro de riesgos (la otra es un ciberataque masivo)
Pero si algo aún no
ha sucedido, existe una profunda tentación de actuar como si no fuera a
suceder. Si eso es cierto de un evento, como esta pandemia, que matará
solo a una pequeña fracción de la población mundial, es aún más el caso de lo
que se conoce como amenazas existenciales. Hay dos definiciones de amenaza
existencial, aunque a menudo equivalen a la misma cosa. Una es algo que
traerá un fin total a la humanidad, nos eliminará como especie de este planeta
o de cualquier otro. El otro, solo un poco menos preocupante, es algo que
conduce a un colapso irrevocable de la civilización, reduciendo la
supervivencia de la humanidad a un estado de existencia prehistórico.
Toby Ord, australiano, del
Instituto de Futuro de la Humanidad de Oxford,
es uno de los pocos académicos que trabajan en el campo de la evaluación de
riesgos existenciales. Es una disciplina que abarca todo, desde
explosiones estelares hasta microbios rebeldes, desde supervolcanes hasta
superinteligencia artificial.
Ord trabaja a
través de cada amenaza potencial y examina la probabilidad de que ocurra en el
próximo siglo. Por ejemplo, la probabilidad de que una supernova provoque
una catástrofe en la Tierra estima que es inferior a uno en 50
millones. Incluso sumando todos los riesgos naturales (que incluyen los virus
naturales), Ord sostiene que no equivalen al riesgo existencial presentado
individualmente por la guerra nuclear o el calentamiento global.
La mayoría de las veces, el público en general, los gobiernos y otros académicos se contentan en gran medida con descuidar la mayoría de estos riesgos. Pocos de nosotros, después de todo, disfrutamos contemplando el apocalipsis.
La mayoría de las veces, el público en general, los gobiernos y otros académicos se contentan en gran medida con descuidar la mayoría de estos riesgos. Pocos de nosotros, después de todo, disfrutamos contemplando el apocalipsis.
En cualquier caso,
los gobiernos, como nos
recuerda el ex ministro conservador Oliver
Letwin en
su reciente libro Apocalypse How?,
generalmente están preocupados por cuestiones más apremiantes que la muerte de
la humanidad. Los problemas cotidianos, como los acuerdos comerciales,
requieren atención urgente, mientras que los futuros hipotéticos, como ser
asumidos por máquinas, siempre se pueden dejar para mañana.
Pero dado que
estamos viviendo una pandemia mundial, ahora es quizás un momento oportuno para
pensar qué se puede hacer para evitar un cataclismo futuro. Según Ord, el
período que habitamos es un momento crítico en la historia de la
humanidad. No solo existen los efectos potencialmente desastrosos del
calentamiento global, sino que en la era nuclear también poseemos el poder de
destruirnos en un instante, o al menos dejar la cuestión de la supervivencia de
la civilización en el equilibrio.
Un trabajador de la salud espera para aceptar a un paciente con ébola en la República Democrática del Congo, 2018. El virus tenía una tasa de letalidad del 50%.
Así, Ord cree que el próximo siglo será peligrosamente precario. Si tomamos las decisiones correctas, él prevé un futuro de florecimiento inimaginable. Si cometemos los equivocados, él sostiene que podríamos seguir el camino del dodo y los dinosaurios, saliendo del planeta para siempre.
Cuando hablo con
Ord por Skype, le recuerdo las inquietantes probabilidades que le otorga a la
humanidad en esta lucha de vida o muerte entre nuestro poder y nuestra
sabiduría. "Dado todo lo que sé", escribe, "pongo el riesgo
existencial de este siglo en torno a uno de cada seis".
En otras palabras,
el siglo XXI es efectivamente un juego gigante de la ruleta rusa. Muchas
personas retrocederán ante una predicción tan sombría, mientras que para otros
alimentará la ansiedad que ya abunda en la sociedad.
Está de acuerdo,
pero dice que ha tratado de presentar su modelado de la manera más tranquila y
racional posible, asegurándose de tener en cuenta toda la evidencia que sugiere
que los riesgos no son grandes. Uno de cada seis es su mejor estimación,
teniendo en cuenta que hacemos una "puñalada decente" al enfrentar la
amenaza de nuestra destrucción.
Si realmente nos lo
proponemos y tenemos una respuesta igual a la amenaza, las probabilidades,
dice, se reducen a algo más como 100-1 para nuestra extinción. Pero,
igualmente, si seguimos ignorando la amenaza representada por los avances en
áreas como la biotecnología y la inteligencia artificial, entonces el riesgo,
dice, "sería más como uno de cada tres".
Martin Rees,
cosmólogo y ex presidente de la Royal Society, cofundó el Centro para el Estudio del Riesgo Existencial en
Cambridge. Durante mucho tiempo ha estado involucrado en crear conciencia
sobre los inminentes desastres y se hace eco de la preocupación de Ord. "Estoy
preocupado", dice, "simplemente porque nuestro mundo está tan
interconectado, que la magnitud de las peores catástrofes potenciales ha
crecido sin precedentes, y muchos han estado en negación sobre
ellas. Ignoramos la sabia máxima "lo desconocido no es lo mismo que
lo improbable".
Letwin advierte
sobre una dependencia excesiva en Internet y los sistemas satelitales, aliados
con existencias limitadas de bienes y largas cadenas de suministro. Estas
son condiciones ideales para el sabotaje y el colapso global. Como
escribe, ominosamente: "Ha llegado el momento de reconocer que cada vez
más partes de nuestras vidas, de la sociedad misma, dependen de redes cada vez
menos integradas".
Las redes globales
complejas ciertamente aumentan nuestra vulnerabilidad a las pandemias virales y
los ataques cibernéticos, pero ninguno de esos resultados califica como un
riesgo existencial grave en el libro de Ord. Las pandemias que le
preocupan no son del tipo que estallan en los mercados húmedos de Wuhan, sino
más bien las diseñadas en laboratorios biológicos.
Aunque Ord
establece una distinción entre los riesgos naturales y antropogénicos (hechos
por el hombre), argumenta que esta línea es bastante borrosa cuando se trata de
patógenos, porque su proliferación se ha incrementado significativamente por la
actividad humana, como la agricultura, el transporte, los complejos vínculos
comerciales y nuestra congregación en ciudades densas.
Sin embargo, como
muchos aspectos de la amenaza existencial, la idea de un patógeno diseñado
parece demasiado de ciencia ficción, demasiado descabellada, para captar
nuestra atención por mucho tiempo. El organismo internacional encargado de
vigilar armas biológicas es la Convención de Armas Biológicas. Su
presupuesto anual es de solo € 1.4millones. Como Ord señala con la
debida burla, esa suma es menor que la facturación del restaurante McDonald's
promedio.
Si eso es algo para
pensar, Ord tiene otra comparación gastronómica que es aún más difícil de
tragar. Si bien no está seguro exactamente de cuánto invierte el mundo
para medir el riesgo existencial, confía, escribe, en que gastamos "más en
helado cada año que en garantizar que las tecnologías que desarrollamos no nos
destruyan".
Ord insiste en que
no es un pesimista. Hay medidas constructivas a tomar. La humanidad,
dice, está en su adolescencia, y como un adolescente que tiene la fuerza física
de un adulto pero carece de previsión y paciencia, somos un peligro para
nosotros mismos hasta que maduramos. Recomienda que, mientras tanto,
reduzcamos el ritmo del desarrollo tecnológico para permitirnos comprender
nuestras implicaciones y alcanzar una apreciación moral más avanzada de nuestra
difícil situación.
Él es, después de
todo, un filósofo moral. Es por eso que argumenta que es vital que, si la
humanidad quiere sobrevivir, necesitamos un marco de referencia mucho más
amplio para lo que es correcto y bueno. Por el momento, subestimamos
enormemente el futuro y tenemos poca comprensión moral de cómo nuestras
acciones pueden afectar a las miles de generaciones que podrían, o
alternativamente, no podrían venir tras nosotros.
Nuestros
descendientes, dice, están en la posición de los pueblos colonizados: están
privados de sus derechos políticos, sin que se diga nada en las decisiones que
se tomarán que los afectarán directamente o les impedirán existir.
"El hecho de
que no puedan votar", dice, "no significa que no puedan ser
representados".
Por supuesto,
también hay problemas concretos que abordar, como el calentamiento global y la
depredación ambiental. Ord reconoce que el cambio climático puede conducir
a "una calamidad global de escala sin precedentes", pero no está
convencido de que represente un riesgo existencial real para la humanidad (o la
civilización). Eso no quiere decir que no sea una preocupación urgente:
solo que nuestra supervivencia aún no está en juego.
Quizás la mayor
amenaza inmediata es la abundancia continua de armas nucleares. Desde el
final de la guerra fría, la carrera armamentista se ha revertido y el número de
ojivas activas se redujo de más de 70.000 en la década de 1980 a alrededor de
3.750 en la actualidad. El inicio (el Tratado de Reducción de Armas
Estratégicas), que fue fundamental para lograr la disminución, finalizará el
próximo año. "Por lo que escucho en este momento", dice Ord,
"los rusos y los estadounidenses no tienen planes de renovarlo, lo cual es
una locura".
Tarde o temprano,
todas las cuestiones de riesgo existencial se reducen a una comprensión y
acuerdos globales. Eso es problemático, porque si bien nuestros sistemas
económicos son internacionales, nuestros sistemas políticos siguen siendo casi
totalmente nacionales o federales. En consecuencia, los problemas que
afectan a todos no son propiedad de nadie en particular. Si la humanidad
se aleja del precipicio, tendrá que aprender a reconocer sus lazos comunes como
mayores que sus diferencias.
Actualmente se
hacen muchas predicciones sobre cómo el coronavirus podría cambiar el
mundo. El filósofo John Gray declaró recientemente que significó el fin de
la hiperglobalización y la reafirmación de la importancia del estado nación.
"Al contrario
del mantra progresivo", Gray escribió
en un ensayo , "los problemas globales no siempre tienen
soluciones globales ... la creencia de que esta crisis puede resolverse
mediante un brote sin precedentes de cooperación internacional es el
pensamiento mágico en su forma más pura".
Pero tampoco los
países individuales pueden darse el lujo de darle la espalda al mundo, al menos
no por mucho tiempo. Es posible que la pandemia no genere una cooperación
internacional más profunda y una apreciación más aguda del hecho de que
estamos, por así decirlo, todos juntos en ella. Sin embargo, en última
instancia, tendremos que llegar a ese tipo de unidad si queremos evitar
aflicciones mucho mayores en el futuro.
No hay comentarios:
Publicar un comentario