首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

连激进的埃隆•马斯克也对人工智能悲观了起来:毫不设防地发展AI,无异于一场豪赌

埃隆•马斯克(Elon Musk)

埃隆•马斯克(Elon Musk)绝不是一位科技悲观主义者,从开发电动汽车到开拓火星殖民地,他坚持认为美好的未来将会很快到来。

但要说到人工智能,他的反应却很反常。

在麻省理工学院(MIT)演讲时,他将人工智能称之为“人类面对的最大威胁”,并将开发人工智能的努力比作“召唤恶魔”之举。

人工智能,仿佛潘多拉的宝盒...

人工智能可能更“聪明”!

他于不久前在接受著名记者卡拉•斯威舍尔(Kara Swisher)采访时重申了他的担忧,虽然他的措辞并不像末日理论那么悲观。

马斯克对斯威舍尔说道:

“人工智能可能比人类聪明得多,人工智能比人类的智力可能相当于人类比猫的智力,甚至可能更大一些。我认为,在推进人工智能发展的过程中,我们需要非常小心谨慎。”

尽管目前人工智能还在解决非常简单的问题,但是其潜力不可预测。

许多人,包括人工智能研究者都认为,人工智能将超越人类,而且是必然的,但这样的前景听起来更像是一个非常遥远的梦。因为目前我们仍在努力解决一些看似简单的问题:

比如,无人驾驶汽车如何应对意外情况——很多对于人类来说都是出于本能反应,却很难教会电脑如何做出正确的反应——比如,预测摩托车驾驶员的动作,辨认路上随风飘动的塑料袋等。

因此,要开发出超越人类能力的人工智能似乎还有很长的路要走。

马斯克并不是唯一一个指出“人工智能威胁论”的人。牛津大学和加州大学伯克利分校的一些人工智能科学家,如史蒂芬•霍金(Stephen Hawking)等名人,以及许多发表开创性研究成果的研究人员,都赞同马斯克的观点,即人工智能可能会非常危险。

令他们感到担忧的是,人类正在急切地致力于开发强大的人工智能系统,而且我们在可能出现危险的情况下仍然会这么做。

深入研究,未雨绸缪

是时候认真对待这些问题了,那么我们应该做些什么呢?

关注人工智能风险的人,在研究方法细节上有很大差别,但有一点是一致的:我们应该做更多的研究。

深入研究,制定规则!

马斯克希望美国政府在考虑如何解决这个问题之前,花一两年的时间来深入了解这个问题:

我认为应该有一个政府委员会来做这件事,花一两年的时间来了解人工智能或其他可能带来危险的技术。

然后在了解的基础上,与业界协商,制定一些规则,让人工智能时代到来时安全性达到最大化。

访问细节展示

以下是斯威舍尔和马斯克的访谈片段,马斯克针对开展人工智能危险性研究以及OpenAI(OpenAI是2015年由马斯克和其他硅谷科技大亨共同创建的人工智能非营利组织,他们希望能藉此来预防人工智能可能带来的灾难性影响,推动人工智能发挥更积极的作用)作出回应。

记者:你认为这种研究已经开始了吗?

马斯克:我并不这么认为。

记者:那你是否认为谷歌会做些这样的研究?

马斯克:据我所知,它应该不会做这种研究。

记者:这也是你开始创建OpenAI和其他东西的原因吗?

马斯克:是的,这也是为什么OpenAI是作为一个非盈利性基金会成立,是为了降低人工智能被垄断的可能性。

记者:能说说具体的体现吗?

马斯克:人工智能的开发力量非常集中,尤其是在谷歌/DeepMind,我非常尊重拉里·佩奇(Larry Page)和德米斯·哈萨比斯(Demis Hassabis),但我坚持独立监督的权利。

人类要始终走在人工智能的前面

糟糕的是,很多人意识不到人工智能的危险性。

在马斯克看来,目前的情况是这样的:一些研究人员,尤其是Deep Mind研究机构的研究人员,他们先后开发了AlphaGo和AlphaZero,正在努力致力于开发更强大更复杂的人工智能系统。

一些人不相信人工智能可能存在危险,从事人工智能研究的一些机构和组织,在责任心和谨慎程度上都没有达到足够高的标准。

拉响警报,提前了解人工智能的危险性。

麻省理工学院物理学教授马克斯•泰格马克(Max Tegmark),在接受《名利场》(Vanity Fair)记者莫琳•多德(Maureen Dowd)的访谈中时表达了同样的忧虑:

“在吸取了火灾带来的惨痛后果之后,我们发明了灭火器;在我们有了汽车以及伴随而来的交通混乱和意外事故之后,我们发明了安全带、安全气囊和交通灯;但就核武器和人工智能而言,我们不想再从错误中吸取教训,我们要提前计划。”

人工智能系统可以迅速发展出意想不到的能力。

人工智能的部署就像火箭发射一样,一切都必须在点击“go”之前完成,因为我们无法依赖自己的能力在火箭发射之后再做出哪怕是很小的修正。

博斯特罗姆在他的《超级智能》一书中还提出,人工智能系统可以迅速发展出意想不到的能力(也就是不可控制的能力),例如,在发明新的机器学习算法和机器学习过程自动化的能力方面,人工智能系统的智慧将丝毫不逊于人类,并可能会很快超越人类,拥有比人类强大太多的能力。

人工智能酿成的错误难以修正!事实上,如果人工智能发展到足够强大的程度,我们可能真的需要提前谋划。牛津大学的尼克•博斯特罗姆(Nick Bostrom)在他2014年出版的《超级智能》(Super intelligence)一书中提出,设计糟糕的人工智能系统一旦被部署,就再也没有纠正的机会:

“一旦有害的超级智能存在了,我们将没有办法替换它或是修正它,它将肆无忌惮地威胁我们,此时,我们的命运将会被注定。”

毫不设防地发展人工智能,无异于一场豪赌。这种预测和担忧让人工智能领域的许多人意识到,对于人类来说,人工智能的开发可能是一场豪赌。

我们可能要付出的赌注将会非常巨大:在未来几十年里,我们要么走向宇宙,最终实现人类后裔殖民宇宙的梦想,要么走向自我毁灭。

因此,马斯克对人工智能的担忧并不是一种过时的技术悲观论,恰恰相反,这种担忧源自于对人工智能发展前景的乐观,相信人工智能具有改变世界的非凡潜力。

正是那些期望人工智能将创造最大奇迹并将给我们带来最大惊喜的人,得出了这样的结论:超越人工智能,始终走在它们的前面,应成为我们当前最紧迫的任务之一。

因为期待,所以谨慎!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181218B1CY6I00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券