Todo lo que Stephen Hawking cree que puede extinguirnos durante el próximo siglo

Stephen Hawking es nuestro pesimista favorito. La Humanidad, según él, sólo tiene dos opciones: colonizar las estrellas o irse a la porra. Como es un poco difícil, asegura el científico, que colonicemos el espacio durante el próximo siglo, es posible que los próximos 100 años sean críticos para nuestra supervivencia.

Es lo que asegura en un adelanto de las Conferencias Reith, una serie de charlas anuales encargadas por la BBC. Hawking acudió para hablar de su especialidad, los agujeros negros, pero no perdió la oportunidad de señalar los peligros que amenazan a nuestra especie, casi todos producidos "por nuestra propia mano".

¿Cuánto nos queda? ¿Qué posibilidades hay de cada desastre?

Según Hawking, "aunque la posibilidad de un desastre en nuestro planeta sea baja, va sumándose año tras año hasta convertirse en casi una certeza para los próximos 1.000 o 10.000 años". Ése es el plazo que tenemos para largarnos de la Tierra y colonizar otros planetas, para que "un desastre en la Tierra no signifique el fin de la especie humana". En la charla, que se emite el próximo día 26 de enero, el científico señala tres problemas, a los que añadir uno que viene tiempo anunciando.

1. Guerra nuclear. Media-baja

Puede que ya no estemos en riesgo de una guerra nuclear total que nos reduzca a todos a supervivientes o cenizas del Páramo como en los mejores momentos de la Guerra Fría. Pero todavía quedan más de 15.000 misiles nucleares en el mundo, cada uno de ellos con la capacidad de reducir una gran ciudad a escombros. Ni Rusia ni Estados Unidos, que albergan más del 90% del arsenal nuclear del planeta, parecen muy inclinados a hacer uso de alguno de sus artefactos.

Pero, desde hace tiempo, existe una posibilidad bastante más real de que las armas atómicas se usen en un conflicto que podría afectar a más de 1.400 millones de personas: el conflicto latente entre India y Pakistán, donde ninguna de las dos potencias descarta el uso de armamento nuclear en una hipotética escalada.

Y eso, sólo en el corto/medio plazo. Hawking señala un siglo, donde pueden pasar muchas cosas. El año pasado, los científicos que mantienen el Reloj del Apocalipsis, que simboliza cuánto nos queda para el Día del Juicio, adelantaron las manecillas hasta señalar que sólo quedaban tres minutos para el fin. La última vez que marcó esa hora fue en 1984, en los coletazos finales de la Destrucción Mutua Asegurada.

2. El cambio climático. Media-alta

Es una de las razones por las que los científicos atómicos del Reloj del Apocalipsis señalan que es casi la hora de irnos a la cama para no despertar. Hawking también lo señala como una amenaza. Aunque es más difícil que acabe con nosotros de golpe, tanto el análisis de riesgo de los 750 expertos del Foro de Davos como el de la Fundación Global Challenges señalan el cambio climático como una de las mayores amenazas que afrontamos como especie. Especialmente si el fenómeno trastoca nuestras posibilidades de cultivar y productir alimentos.

En cuanto a impacto, el "fracaso al mitigar el cambio climático y adaptarnos al mismo" ocupa el primer lugar en el análisis de riesgos encargado por el Foro Económico Mundial. Y está en tercera posición en cuanto a posibilidad de que ocurra. Es la primera vez desde que se realiza el informe de Davos que el cambio climático puntúa tan alto.

3. Virus modificados genéticamente: ¯ \ _ (ツ) _ / ¯

Sí, también aparecen más o menos en los informes apocalípticos que enlazamos. Quizás no enunciados de esta manera, pero como un cruce entre "posibilidades adversas de los avances científicos" -que es casi textualmente lo que afirma Hawking- y las pandemias globales. ¿Puede un virus creado mediante ingeniería genética mandarnos al cuerno? Sí. ¿Existe ese virus? No. ¿Puede que exista? Bueno, de momento sí estamos "creando" virus modificados genéticamente para atacar células humanas. En concreto, las de algunos tipos de cáncer. ¿Qué puede salir mal?

4. Robots asesinos: media-alta

Guardium, el reverso tenebroso israelí del coche Google.

Vale, ésta no es nueva. Hawking está muy preocupado porque de aquí a 100 años nos pase de todo, pero uno de sus miedos recurrentes es la aparición de Skynet y su ejército de Terminators. Y por partes. En lo que respecta a la inteligencia artificial, el científico imagina que

"semejante tecnología sea más lista que los mercados financieros, supere los inventos de los investigadores humanos, sea capaz de manipular a los líderes humanos, y que desarrolle armas que ni siquiera podamos entender.Aunque el impacto a corto plazo de la inteligencia artificial depende de quién la controle, el impacto a largo plazo depende de si puede ser siquiera controlada."

Y lo de los robots tampoco le hace mucha gracia. El coche autónomo es sólo la cara positiva de "armamentos más allá de todo control humano". Hawking firmó hace pocos meses una carta, junto a Elon Musk y otros nombres de primera división, en la que se advertía contra la

"aparición [de robots armados], que será posible en pocos años, no en décadas. Hay mucho en juego: las armas autónomas se han descrito como la tercera revolución bélica, después de la pólvora y las armas nucleares."

5. Y, por supuesto,

Tenemos ganas de escuchar la conferencia completa, para saber si Hawking cita algún factor que pueda extinguirnos que no venga de la mano del propio ser humano, aparte de "las nuevas cosas que pueden ir mal" que traerán consigo nuestros avances científicos. ¿Nuestros candidatos? Los extraterrestres, que "podrían ser miles de millones de años más avanzados que nosotros (...), tan poderosos que puede que no nos viesen más preciados de lo que nosotros consideramos a las bacterias".

Ver todos los comentarios en https://www.xataka.com

VER 0 Comentario

Portada de Xataka