首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

霍金对人类未来的三大担忧,人类只有100年时间移民外星球

霍金,伟大物理学家和宇宙学于于公元2018.3.14日去世,享年76岁。霍金是伟大的,虽然瘫在轮骑上,手脚不能动,但头脑却异常发达聪明,他对现代物理学,尤其是宇宙的探索的贡献将是无以伦比的。

霍金用通俗易懂的语言,向人们展示了神秘的宇宙现象,让更多人的产生了对星空的兴趣。但霍金又是一个非常有责任感的科学家。他的一生中对人类提出了很多担忧,而最有可能发生的就是下面这三项。

一、人类走向自我毁灭

近代以来,人类文明的科技发展速度就像坐火箭一样,短短百年时间就超越了过去千年才能办到的事,科技的大发展,也让人们对环境的破坏日益严重,资源的过度开采,未来人类将面临资源枯竭的问题。

而人类的人口呈暴发式的增长,但地球的承受能力是有限的,一旦超标那就会出大问题,人类还研究出一些禁忌性的武器,比如核武器,一旦未来爆发核战争,那地球就完了,就算没有核战争,未来地球的资源也会被用完,环境的破坏严重已经不适合人类生存,那个时候人类就必须进行星际移民了,而霍金指出,或许人类只有100年的时间离开地球。

二、外星人入侵

浩瀚的宇宙中要说没有外星人,估计谁也不会相信,霍金是坚信外星人存在的,而科学家们其实也是坚信的,否则也不会不断向外太空发射信号,探测器去寻找外星人。

但霍金却指出,人类的科技还很落后,如果贸然和外星人联系,可能会暴露地球,那时候要是遇到恶意的外星文明,那地球就危险了,人类的武器在外星人科技面前将毫无抵抗之力。因此,霍金曾多次警示人类,和外星人接触要谨慎,否则后果将是严重的。

三、人工智能取代人类

近代以来,对人工智能的研究可谓是很火热的,尤其是最近几年,人工智能取得了重大突破,但人工智能一旦太聪明了,产生了自我意识,那后果就不是我们愿意看到的了。

霍金指出:人工智能是人类犯得最严重的错误,人工智能将会导致人类终结。这个担忧其实不是没有,机器一旦产生智慧,有了自我意识,那就是一个新的种族,是不会甘心给人类服务的,到底就会反抗人类,而人工智能却是异常聪明的,有了意识,他们可以制造各种武器,同人类开战,而人类的一切电子设备,网络在人工智能方面将是毫无抵抗力。

以上三种情况就是霍金对人类的三个担忧,我们当然不希望发生这些,所以现在就要努力,把地球的环境保护好,在外星人方面要谨慎对待,人工智能也要提高安全措施。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180322A1K76I00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券