El físico Stephen Hawking opinó que las nuevas tecnologías probablemente signifiquen "nuevas maneras en las que las cosas pueden salir mal" para la supervivencia humana.

NOTICIA: La inteligencia artificial es una amenaza para la humanidad: Hawking

Cuando se le preguntó cómo terminará el mundo, Hawking respondió que cada vez más, la mayoría de las amenazas que enfrenta la humanidad provienen de los propios avances en la ciencia y la tecnología.

Dijo que eso incluye una guerra nuclear, un calentamiento global catastrófico y los virus manipulados genéticamente.

NOTICIA: Stephen Hawking se une a Facebook

Sin embargo, el profesor de la Universidad de Cambridge agregó que un desastre en la Tierra "casi certeza" en un lapso de entre 1,000 y 10,000 años no significaría el fin de la humanidad, porque para ese momento el ser humano probablemente se haya extendido por el espacio.

Hawking habló el 7 de enero durante la grabación del programa anual de la BBC Reith Lectures. Su conferencia completa será transmitida el 26 de enero y el 2 de febrero.

NOTICIA: La hipótesis innecesaria vs la teoría imprescindible

rarl