为啥马斯克要害怕人工智能?

本文由腾讯数码独家发布

人工智能相信大家都不陌生,随着人工智能的不断发展,很多人也不免担心它会发展到人类无法控制的态势,近期,特斯拉CEO马斯克就公开表示了对人工智能的未来的担忧。马斯克并不是科技悲观主义者,他对科技向来是持一种开放的态度,从电动汽车到火星殖民地,他一直坚信以科技的发展,这些不久后都可以实现。

但一提到人工智能,他对其的态度就完全不一样了,2014年在麻省理工做演讲时他就声称,人工智能是现今存在的最大威胁,并将研究人工智能视为召唤恶魔。在上周五接受采访时,他又再次表示了他的担忧,不过没有到末日论调那么严重,马斯克表示,人工智能可能比人类聪明得多,人工智能和人类的智力水平相当于人和猫的智力水平,可能差距还会更大些,我们真的需要非常小心地开发人工智能。

但是也有很多人,甚至研究机器学习的科学家都表示,人工智能想那么轻而易举地超越人类的智力水平,暂时是不太可能的。人工智能现在还不成熟,我们仍在解决机器学习的基础问题,比如,自动驾驶汽车对一些特殊情况的处理还很不成熟,因为人类的很多本能和认知机器是很难学会的,比如预测摩托车驾驶员的动作,辨认路上飘着的塑料袋等等,人工智能想要超越人类暂时还不太可能。

但是,马斯克并不是唯一公开对人工智能表示担忧的人,牛津大学和加州大学伯克利分校的人工智能科学家、史蒂芬•霍金,以及许多研究人员都支持马斯克的观点,他们担心太过急于研究人工智能,可能会出现一些不可控的情况。我们静下心来想想这个问题,那我们应该怎么办呢?很多人就会去做各种各样的研究来弄明白这点,不管怎样,有一点是肯定的,我们能做的就是去做研究弄明白人工智能的存在是否足以构成威胁。

同时,马斯克希望美国政府在考虑如何解决这个问题之前,花点时间了解清楚这个问题。他在接受采访时进一步表达了这个想法:“我认为政府在解决这个问题前,花一两年的时间来了解清楚人工智能的发展程度和趋势,分析其可能带来的风险,然后,基于调查结果,协商制定出规范人工智能研究的准则。”

马斯克表示,一些研究组织,尤其是Alphabet旗下的谷歌Deep Mind,开发了AlphaGo和AlphaZero,并还在急于开发更复杂强大的人工智能系统。有些人不相信人工智能对人类可能有威胁,而且从事人工智能的研究也没有准则规范。“我们不想犯了错误才会想到吸取教训。”

麻省理工学院物理学教授马克斯•泰格马克去年接受采访时表达同样的担忧:“有人在火灾中丧生,我们才发明了灭火器,发明汽车后出现了交通事故,我们才发明了安全带,安全气囊和交通灯,但这回我们发明了核武器和人工智能,我们可能等不起到犯了错才知道吸取教训了,这次我们要提前预防。”

如果人工智能的潜力巨大,我们真的需要提前预防,牛津大学的尼克•博斯特罗姆在他2014年的著作《超级智能》中提到,一旦开发出不良设计的人工智能系统,想要纠正几乎不可能,它会阻止我们重新编写它的程序,那时,说什么都晚了,打个比方,人工智能的开发就像火箭发射,等到点了发射键之后才想到要修正,一切都晚了。博斯特罗姆在《超级智能》一书中还提到,人工智能发展之迅速是我们永远都想像不到的,机器的学习能力真的是很可怕的。

很多人工智能领域的专家都认为,这就是一场豪赌,与马斯克一同接受采访的Y Combinator的山姆•奥尔特曼表示:“在未来几十年里,我们要么走向自我毁灭,要么走向人类统治的巅峰。”“没错。”马斯克附和道。我们了解到人工智能发展的潜力后,明白马斯克对人工智能的担忧并不是一种科技悲观论调,他对科技的态度很开放,相信人工智能具有非凡潜力,但也担忧其未来发展。

来源:vox

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181103A0W2U700?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券