Hawking alerta de avances en ciencia y tecnología | ToreoWeb
3888
post-template-default,single,single-post,postid-3888,single-format-standard,ajax_fade,page_not_loaded,,qode_grid_1300,qode_popup_menu_push_text_top,qode-content-sidebar-responsive,qode-theme-ver-10.0,wpb-js-composer js-comp-ver-7.5,vc_responsive

Hawking alerta de los avances en ciencia y tecnología

Hawking alerta de los avances en ciencia y tecnología

El conocidísimo astrofísico británico Stephen Hawking, ha alertado de que los progresos en la ciencia y tecnología, junto con una serie de factores que dependen directamente de las personas, amenazan la continuidad de la humanidad.

Estos avances, según el científico, derivarán en «nuevas vías por las que las cosas pueden terminar mal» y señaló que entre los riesgos que podrían poner el mundo en peligro, habría una posible guerra nuclear, el calentamiento global y los virus de ingeniera genética.

Estas declaraciones que adelantó hoy martes a la cadena británica BBC,  se extraen de unas conferencias que Hawking ha grabado y que serán emitidas el próximo 26 de enero y 2 de febrero en el programa Reith Lecture de la BBC Radio 4 sobre sus investigaciones relativas a los agujeros negros.

En respuesta a las preguntas de la audiencia, Hawking aseguró que la humanidad podría sobrevivir si finalmente consigue establecer y levantar colonias en el espacio.

Desastre en el próximo milenio

«A pesar de que la posibilidad de que ocurra un desastre en la Tierra parece ahora muy bajo, será casi una certeza en los próximos mil o diez mil años», apuntó.

Sin embargo, el científico de 74 años explicó que, para entonces, los humanos se «habrán expandido por el universo» y llegarán «a otras estrellas» por lo que una catástrofe en el planeta «no supondrá el final de la raza humana».

A pesar de que suene prometedor, Hawking dejó claro que la humanidad «debe ser muy cuidadosa» ahora mismo porque las colonias «autosuficientes» en el espacio exterior no serán factibles hasta pasados «por lo menos cien años».

La doble cara de la inteligencia artificial

El astrofísico ya señaló los riesgos que supondría para la extinción del género humano un avance rápido y fuerte de la inteligencia artificial.

Además, se definió como una persona «optimista» al creer posible que los humanos podrán reconocer a tiempo los peligros de la ciencia y la tecnología para «controlarlos».

También aconsejó a la nueva generación de jóvenes científicos que su reto consiste en ayudar a entender cómo estos descubrimientos cambiarán el mundo.

Fuente: La Vanguardia

No Comments

Post A Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.