1642年1月8日,伽利略逝世,
1879年3月14日,爱因斯坦诞生,
1942年1月8日,霍金诞生,去世于2018年3月14日!
在没有尽头的时间长河里,三位科学巨人就此相遇,这是巧合,还是一种没有被参透的时间密码?
人们追随霍金,固然有他身体缺陷所带来的‘残缺美’,但更多的是他灿若繁星的学术思想魅力。
“你是谁?
你从哪里来?
你要到哪里去?”
哲学的终极问题,科学家也在孜孜以求终极答案,或许我们能在《霍金三部曲》(《时间简史》、《果壳中的宇宙》、《大设计》)中找到答案。
不同于晚年研究神学的牛顿,霍金是个无神论者,他自我评价:我是一个乐观的、浪漫的,并且顽固不化的人。在霍金晚年的时候,最为人津津乐道的应该是他关于“时间旅行”的惊人论述!
带着人类飞入未来的时光机,在理论上是可行的,所需条件包括太空中的虫洞或速度接近光速的宇宙飞船,开始真正的时间旅行!
霍金:外星人就在我们周围
在2015年伦敦皇家科学学会寻找外星生命迹象的启动仪式上,霍金过:“在无限的茫茫宇宙中,一定存在着其它形式的生命。”
他说:“或许外星生命会正盯着我们看呢。”“不管最终地外智慧生命到底存在还是不存在,现在该是有人正式投入进来。这个问题,我们必须要弄个明白。”
霍金:人类搬离地球,否则将在200年间毁灭
在2011年接受美国视频共享网站BigThink访谈时,霍金称地球将在200年内毁灭,而人类要想继续存活只有一条路:移民外星球。
“为了人类生存,扩大到太空是对人类来说很重要的事情。地球上的生命被一场灾难摧毁的风险日渐增加,例如突然恶化的全球暖化,核武战争,基因改造的病毒,甚至其他我们还不知道的危险。”
“人类在未来数百年里必须认真考虑自己的生存问题。我看到了人类的危险,过去曾出现过多次人类的生存危机。发生类似情况的频率还会增加,我们需要十分谨慎地避免这类危机。”
霍金:人工智能可能会导致人类的灭亡
2014年5月3日,霍金在讨论《超验骇客》时称,人工智能或许不但是人类历史上最大的事件,而且还有可能是最后的事件。人工智能可能会导致人类的灭亡。
人工智能可以解决世界上的大部分问题,包括人类的疾病、社会的问题等,AI有这个潜力。如果对于AI的部署得当,那将会挖掘无限的潜力,如果部署不当,可以威胁人类的生存。人工智能一旦脱离控制,人类受到进化的限制,将无法与之竞争。
领取专属 10元无门槛券
私享最新 技术干货