首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

霍金去世,但时间没有尽头!

1642年1月8日,伽利略逝世,

1879年3月14日,爱因斯坦诞生,

1942年1月8日,霍金诞生,去世于2018年3月14日!

在没有尽头的时间长河里,三位科学巨人就此相遇,这是巧合,还是一种没有被参透的时间密码?

人们追随霍金,固然有他身体缺陷所带来的‘残缺美’,但更多的是他灿若繁星的学术思想魅力。

“你是谁?

你从哪里来?

你要到哪里去?”

哲学的终极问题,科学家也在孜孜以求终极答案,或许我们能在《霍金三部曲》(《时间简史》、《果壳中的宇宙》、《大设计》)中找到答案。

不同于晚年研究神学的牛顿,霍金是个无神论者,他自我评价:我是一个乐观的、浪漫的,并且顽固不化的人。在霍金晚年的时候,最为人津津乐道的应该是他关于“时间旅行”的惊人论述!

带着人类飞入未来的时光机,在理论上是可行的,所需条件包括太空中的虫洞或速度接近光速的宇宙飞船,开始真正的时间旅行!

霍金:外星人就在我们周围

在2015年伦敦皇家科学学会寻找外星生命迹象的启动仪式上,霍金过:“在无限的茫茫宇宙中,一定存在着其它形式的生命。”

他说:“或许外星生命会正盯着我们看呢。”“不管最终地外智慧生命到底存在还是不存在,现在该是有人正式投入进来。这个问题,我们必须要弄个明白。”

霍金:人类搬离地球,否则将在200年间毁灭

在2011年接受美国视频共享网站BigThink访谈时,霍金称地球将在200年内毁灭,而人类要想继续存活只有一条路:移民外星球

“为了人类生存,扩大到太空是对人类来说很重要的事情。地球上的生命被一场灾难摧毁的风险日渐增加,例如突然恶化的全球暖化,核武战争,基因改造的病毒,甚至其他我们还不知道的危险。”

“人类在未来数百年里必须认真考虑自己的生存问题。我看到了人类的危险,过去曾出现过多次人类的生存危机。发生类似情况的频率还会增加,我们需要十分谨慎地避免这类危机。”

霍金:人工智能可能会导致人类的灭亡

2014年5月3日,霍金在讨论《超验骇客》时称,人工智能或许不但是人类历史上最大的事件,而且还有可能是最后的事件。人工智能可能会导致人类的灭亡。

人工智能可以解决世界上的大部分问题,包括人类的疾病、社会的问题等,AI有这个潜力。如果对于AI的部署得当,那将会挖掘无限的潜力,如果部署不当,可以威胁人类的生存。人工智能一旦脱离控制,人类受到进化的限制,将无法与之竞争。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180314G0XNQG00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券