首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

历数霍金的“恐怖”预言!

昨日,英国著名物理学家斯蒂芬·霍金去世,享年76岁。霍金家人声明:他的勇气与坚持鼓舞了全世界。

霍金生前曾患上肌肉萎缩性侧索硬化症,全身瘫痪,不能言语。霍金的孩子致《卫报》的声明中写道,“他的勇气、坚持以及他的杰出及幽默鼓舞了世界各地的人”。声明中写道,“我们将永远怀念他”。

一直致力于探索宇宙奥秘的霍金,曾经作出过哪些预言呢?

霍金语录一:“外星人”在看着你

在2015年伦敦皇家科学学会寻找外星生命迹象的启动仪式上,霍金就说过:“在无限的茫茫宇宙中,一定存在着其它形式的生命。”

他说:“或许外星生命会正盯着我们看呢。”“不管最终地外智慧生命到底存在还是不存在,现在该是有人正式投入进来。这个问题,我们必须要弄个明白。”

据介绍,这个项目将动用部分目前世界上最大的望远镜,更远地深入宇宙中去捕捉任何无线电波和激光信号。

霍金语录二:千年内人类须移民外星 否则“灭绝”

霍金在美国洛杉矶发表演讲时称,他认为,未来1000年内,基本可以确定的是地球会因某场大灾难而毁灭,如核战争或者温室效应。因此,他强调人类必须移居其它星球。美国航空航天局局长格里芬也表示,单独一颗行星上的物种,是不可能永久生存下来的。

在太阳系中,火星是除地球之外可供人类居住的最佳选择。但火星载人探测要几十年之后才能实施,探测一次往返要450天。

霍金表示:“人类灭绝是可能发生的,但却不是不可避免的,我是个乐观主义者,我相信科学技术的发展和进步最终可以带人类冲出太阳系,到达宇宙中更遥远的地方。”

霍金语录三:智能机器是真正人类“终结者”

对于人工智能,霍金曾表示,AI的崛起可能是人类文明的终结,除非我们学会如何避免危险。

“我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。除非,人工智能系统需要按照人类的意志工作”。

“我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。当下还无法判断人工智能的崛起对人类来说到时是好事还是坏事,但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利”。

霍金表示,人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻,把我们的研究重复从提升人工智能能力转移到最大化人工智能的社会效益上面。

人类未来是否会被人工智能代替?霍金表示,人类无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。

事实上,美国Space X首席执行官、大名鼎鼎的“钢铁侠”原型设计者埃隆·马斯克,微软创始人兼慈善家比尔·盖茨,也都警告过要注意人工智能的“危害”。麻省理工学院教授、科学家、谷歌、IBM和微软等企业员工及与人工智能领域有关的投资者,也联名发出公开信,表达同样的忧虑。

霍金语录四:“黑洞”不存在?只有“灰洞”?

在一篇《黑洞的信息保存与气象预报》的论文中,霍金指出黑洞其实是“不存在”的,不过“灰洞的确存在”,再次震惊物理学界。

霍金1976年提出著名的“霍金辐射”理论,即黑洞在形成中质量减少的同时,还不断在以能量形式向外界发出辐射。但一旦黑洞浓缩并蒸发消失后,其中所有信息就随之消失,与量子力学认定该类物质信息永不会完全消失的理论相矛盾。这就是所谓的“黑洞悖论”。

30多年来,霍金试图以各种推测来解释这一矛盾观点。现在看来,他给了一个更具说服力的答案。霍金承认,自己最初有关黑洞边界“视界”的认识是有缺陷的,光线其实是可以穿越视界的。他称,黑洞从来都不会完全关闭自身,物质和能量在被黑洞困住一段时间以后,又会被重新释放到宇宙中。

图文|网络 版权归属原作者

整理作品|转载请联系授权,否则视为侵权

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180316A0MBEP00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券