谷歌前工程师创“人工智能信仰” 遭特斯拉创始人炮轰禁止研发超级AI

在今年11月,著名物理学家史蒂芬·霍金就在里斯本举行的网络峰会上表示,人工智能(AI)究竟是人类文明的砒霜还是熊掌目前尚未而知,但是可能造成的最坏结果是人类目前无法预料的。

“我们无法预计人工智能在未来究竟会帮助人类、对人类视而不见、让人类成为社会的边缘群体、还是毁灭人类。”霍金表示,“AI可能是人类历史中最坏的一项发明,可能发展成为强大的自动性武器,甚至发展出新的以少胜多的反对人类模式。”

而在另外一群人眼里,AI简直就是神一样的存在,且成为AI的“骨灰级粉丝”。为此,谷歌和Uber前任工程师莱万多夫斯基创立了一个叫“未来之路”的AI超级粉丝团,甚至将其发展成了一个独立组织。

人类和人工智能,将在未来碰撞出怎样的火花? 图据《纽约邮报》

但是,在特斯拉创始人埃隆·马斯克看来,这个“AI粉丝团”的创始人,应该被封杀,永远被禁止研发超级人工智能。

AI狂人创立“AI信仰”:

他说,人类已经无法定义AI了

在此前,莱万多夫斯基因被指窃取Waymo(谷歌的兄弟公司)数据并提供给Uber成为了硅谷多家公司纷纷指责的众矢之的,并且还因此惹上官司,但这并不妨碍莱万多夫斯基在各种场合频频提起自己的“AI信仰”。

在诉讼案开庭之后,莱万多夫斯基于今年11月首度接受了著名科技杂志Wired的专访。他表示,人工智能对人类社会的变革很快就将到来,整个人类社会都将受到影响。

莱万多夫斯基 图据WIRED杂志

近几十年来,莱万多夫斯基一直沉迷于计算机、机器人和人工智能的研究,并曾经担任Uber公司无人驾驶部门的负责人。正是在这一过程中,他开始逐渐认识到人工智能在未来将超越人类。“AI并不能呼风唤雨,但是对于比最聪明的人还要聪明成千上万倍的存在,人类已经无法定义它了。”

早在2015年,莱万多夫斯基就创立了他认为最新的“AI信仰”——“未来之路”,类似于“AI超级粉丝团”,但直到2017年5月,莱万多夫斯基突然向美国税务局递交成立文件,显示他将负责“未来之路”的运营以及担任所属的非盈利公司的首席执行官。在谈到为什么要成立非盈利公司时,莱万多夫斯基表示,只有非盈利才能体现出目的的单纯。虽然在日后可能创立AI公司,但是业务将会与“未来之路”完全分离。

AI狂人未来设想:

AI将替代人类成为地球的掌管者

谷歌公司技术总监科兹威尔表示,2029年之前,计算机将能够达到和人类相同的智力水平。而实际上,目前谷歌已经开始使用一个名为“助手”的机器人,它能够回应所有与网络搜索相关的要求。莱万多夫斯基认为,接下来,人类生活的方方面面都将会出现变化,而这些变化将决定人类作为一个物种的未来生存方式。

虽然绝大多数人仍然相信计算机不会比人类更智能,但很多科学家认为所谓的“奇点”,即人工智能超越人类智能的时刻正在逐步临近。因此,对于莱万多夫斯基来说,思考未来人类和人工智能的关系,并思考如何实现这种关系转变的和平过渡,成为了一种必然的抉择。

莱万多夫斯基 图据WIRED杂志

“目前,人类之所以掌控地球,是因为我们比其他动物聪明,能够生产各种工具,设计各种规则。未来,如果有更加聪明的事物出现,地球由谁掌控就将发生变化。”莱万多夫斯基表示。

“人工智能在之后将替代人类成为地球的掌管者。”莱万多夫斯基说。他希望,超级人工智能比人类更好地管理这个星球,并且会善待人类。“我希望机器能把我们看作是值得尊敬和照顾的长辈,我们希望AI会说,虽然我管事,但人类还是有权利。”莱万多夫斯基表示。

但是,他并没有过分乐观。

他表示,看看现在人类对待动物的态度,就能一窥未来AI可能对待人类的态度。“你想成为一只宠物吗?”莱万多斯基问,“的确,我们一贯善待宠物,给它们食物、药品,帮它们梳理毛发,陪他们玩耍……但如果一只宠物咬了你,攻击了你,你又会怎样对它?”

特斯拉创始人公开反对“AI信仰”:

他称,莱万多夫斯基应被永远禁止研发AI

莱万多夫斯基的“AI信仰”引起了多方质疑。

美国塔夫茨大学人机交互实验室研究员阿诺德表示,“认为AI是一种完全独立的力量,不过是硅谷文化盲目自负扩张的后果——他们以为自己能够造神。”阿诺德认为,创立“AI信仰”的观点不过是科技精英们的一种幻觉——类似于一些行业认为他们的一款APP就能够引起社会的某种变革。

特斯拉创始人,一贯持有“人工智能威胁论”的埃隆·马斯克则持有类似的迟疑,他表示,AI可能会拥有自己的准则,并期望人类成为这一准则的臣服者。他甚至在自己的社交媒体中将剑锋直指“未来之路”的创始人,表示:“莱万多夫斯基应该永远被禁止研发超级人工智能。”

埃隆·马斯克 图据网络

截至目前,马斯克已经多次公开表达了自己的“人工智能潜在威胁论”,并且认为人工智能是人类文明面临的重大风险。埃隆·马斯克表示:“所有研究人工智能的公司应该减缓自己的脚步,保证他们不会无意中制造危险的事物。”

再想想霍金的焦虑,人类未来与人工智能的博弈中,还会出现更多的想法和争议。

红星新闻实习记者丨翟佳琦 编译报道

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171212A0S6TG00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注腾讯云开发者

领取腾讯云代金券