首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

他留给世界最后的话

据外媒报道,当代最伟大的宇宙学家史蒂芬·霍金于2018年3月14日在剑桥家中去世,享年76岁。

他被禁锢在轮椅上,只有三根手指和两只眼睛可以活动,疾病已经使他的身体严重变形,头只能朝右边倾斜,肩膀左低右高,双手紧紧并在当中,握着手掌大小的拟声器键盘。这种疾病最终使他瘫痪,他需要完全依赖其他人及科技工具来实现衣食住行。

然而,生活在死亡威胁下的人生命更会盛开灿烂的花。对霍金来说,他的疾病给他点燃了一种全新的目标。他说过:“尽管我的未来笼罩着一片阴云,但令我惊讶的是,我现在比以前更享受现在的生活了。”他宣称:“我的目标很简单,就是对宇宙的完全理解,为什么它是这样的,为什么它存在。”

我想,他一定是去了自己向往的宇宙,在那里继续研究,继续遨游想象。

霍金先生留给世界的关于“人工智能”思考

他说在我的一生中,我见证了很多社会深刻的变化。其中最深刻,同时也是对人类影响与日俱增的变化就是人工智能的崛起。人工智能可能是人类文明史上最伟大的事件,它要么是人类历史上最好的事,要么是最糟的。如果我们不能学会如何避免风险,那么我们会把自己置于绝境。人工智能的真正风险不是它的恶意,而是它的能力。一个超智能的人工智能在完成目标方面非常出色,如果这些目标与我们的目标不一致,我们就会陷入困境。”

霍金认同的:人脑与电脑没区别

霍金认为,生物大脑可以达到的和计算机可以达到的,没有本质区别。AI遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。霍金说,近来人工智能的发展,比如电脑在国际象棋和围棋的比赛中战胜人脑,都显示出人脑和电脑并没有本质差别。

霍金担心的:失控

一方面,霍金担心一些人利用人工智能做坏事,比如最大化使用智能性自主武器,它将助长战争和恐怖主义,加剧世界动荡局势。

另一方面,霍金最担心还是人工智能系统失控爆发的潜在风险,人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。到那时,人工智能可能是人类文明史的终结。

霍金建议的:跨学科

霍金在演讲中说到,人工智能的崛起,是好是坏目前仍不确定。霍金认为,人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。

但是霍金呼吁,人工智能的研究与开发正在迅速推进,但所有人都应该暂停片刻,把我们的研究从提升人工智能能力转移到最大化人工智能的社会效益上面。

霍金同时提出,跨学科研究是人工智能一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。

霍金所做的:调查研究

2016年10月,霍金在在英国剑桥建立了跨学科研究所“利弗休姆智能未来中心”,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心”致力于研究智能的未来,花费大量时间学习历史,深入去看。

2015年1月份,霍金与马斯克等一些人工智能专家签署了一份关于人工智能的公开信(这封公开信由“生命未来研究所”科学顾问委员会起草),目的是提倡就人工智能对社会所造成的影响做认真的调研,致力于让人工智能的研发人员更关注人工智能安全。

最后,霍金对全世界的人是说,“我们站在一个美丽

新世界

的入口。这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者。我祝福你们。”

人工智能是成就人类,还是毁灭人类,等待着人类继续书写。

霍金留下这千年预言,在另外一个宇宙时空坐观。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180314G17RFW00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券