首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

我们什么时候能够实现真正的人工智能?

源SingularityHub译欧阳洵

人工智能由来已久。但是真正追溯起它的源头,很多人都认为在1956年,它诞生于达特茅斯学院科学家们的夏日聚会。在过去的几十年间,计算机科学的发展跌宕起伏;而现在,计算机的运算速度已经远远超过了普通人类。考虑到过去计算机科学的发展,它的前景是很乐观的。天才科学家阿兰图灵先于计算机诞生之前就提出了可以思考的机器的概念。这些科学家都有一个很单纯的构想:所谓智能,无非也就是数学过程。人的大脑,也就是机器的一种。把数学过程抛开一边,我们就能够制造出一台机器用于仿真人脑。

问题看起来并不那么难:达特茅斯的科学家们写到,“我们认为只需要选取特定的科学家们暑假聚在一起研究研究,就可以在一个或者多个问题上取得重大进展”,这份研究提案可能是人类历史上第一次出现“人工智能”这一个术语。科学家们有很多的想法,例如可以尝试仿真人脑神经元是如何工作的,然后教会机器从人类语言中抽象出来的规则。

科学家们对此表示非常乐观,在他们的努力之下也得到了回报。没过多久,就出现了第一个可以理解人类语言并且解决代数问题的计算机程序。人们大胆的预测,在二十年之内,能够出现人类智力水平的机器。

事实上,这可以追溯到图灵的第一篇有关“会思考的机器”的论文,在文章中,他大胆的预测,在50年之内会出现能够通过图灵测试的机器,机器能够向人类证明他们能够像人类一样思考。然而到了今天,人们还在预测这样的机器能否在未来的20年之内出现,其中最著名的预测来自雷德孟德.库茨维尔。有那么多不同的来自不同的专家的分析和调查,甚至让你都会以为,人工智能研究院绝对不会有兴趣自动回复这个问题:“我已经预测了你的问题是什么,对不起,我无法预测何时机器能够像人脑一样思考。”

预测达到人脑级别的人工智能的诞生的难点在于我们并不知道离实现那一步还有多远。这不像是摩尔定律。而摩尔定律做出的预测比较的精确:每隔约两年(18个月),计算机的处理性能将会提高两倍(集成电路的晶体管数目会增加两倍)。基于此,我们就能够粗略的知道如何实现目标:通过提高晶片的加工工艺—基于我们目前基础研究的成果,我们知道加工工艺还有很大提高的空间(至少,加工工艺还没有提高到原子的级别)。但是我们却无法对人工智能做出相似的预测。

通病

斯图尔特.阿姆斯特朗(Stuart Armstrong)则在寻找这样预测的趋势。更准确的说,他在寻找两种认知的偏差。一种就是人工智能科学家在他们临终前预测人工智能将要到来(这样也可以使他们变得不朽)。正如《书呆子的狂喜》批评的一样,像库茨维尔那样的人,他们的预测纯粹是基于他们对死亡的恐惧,对永垂不朽的贪婪,以及根本上的非理性。创造出超级人工智能已经被当做成了一种信仰。而现今真正工作在人工智能一线的科研人员则清楚的知道人工智能如今所面临的困境。

另外一种则是预测的人通常都选取一个15年到20年之间的时间范围。这个时间段足够说服人们他们的工作是革命性的并且能够被时代所证明(这个时间璇却),但又不至于很快的被人们发现他们的预测根本站不住脚。综上,阿姆斯特朗发现了后者更多的证据:预测的人挺喜欢预测他们死后的东西,尽管大部分人都没有这样做,但是预测“15到20年”能够实现超级人工智能是有非常大的偏差的。

测量进程

阿姆斯特朗指出,有很多的指标可以用来帮助你评估一项预测的有效性。例如,用模拟仿真人脑的活动来开发达到人脑智力水平的人工智能至少清晰地为你指明了一条评估进展的道路。每次我们对人脑的构造有了更进一步的了解,或者又成功的仿真出一部分人脑活动,我们就可以明确的知道,我们正在朝着达到人脑级别的人工智能进步着。20年可能并不是一个准确的数字,但是至少你可以科学的评价这个进程。

我们认为,当一个网络足够复杂,并且拥有足够强大的运算能力,我们就说,真正的人工智能,或者机器感知就出现了。这就好比我们想象人工智能或者计算机的自我意识在不停的进化一样--尽管进化通常需要数亿年,而不仅仅是几十年就能够完成的。不过问题来了,我们并没有任何经验数据:我们从来没有从一个复杂网络中看到计算机的自我意识来证明它自己的存在。不仅我们不确信它的可能性,我们甚至不知道我们离实现这一目标到底有多远,因为我们根本无从对这个进程进行评估和测量。

理解人工智能哪部分任务艰巨,什么样的问题从人工智能诞生的第一天就留存到了现在,都是极为困难的。 就单纯的看人工智能的原始的研究提案,它就在同一个层面上提到了理解人类语言,理解随机性,创造性,以及自我改进。我们人类拥有伟大的语言处理能力,但是计算机真的就理解他们在处理语言的时候,到底在做什么吗?我们有的人工智能可以很随机的创造一下,可这就真的是我们所谓的创造力吗?稀有性所依赖的超强自我进化能力看起来也遥不可及。

我们也并未对人工智能的真正含义有着深刻的理解。比如,人工智能科学家始终低估了人工智能在围棋上的能力。甚至在2015年的时候,他们估计要到2027年人工智能才能够在围棋上击败顶尖的人类选手。可事实上,实现这个过程仅仅只花了两年,而不是十二年。可这就意味着人工智能已经非常接近于编写伟大美国小说级别的作品了吗?这就意味着人工智能已经很接近于真正理解这个世界的能力了吗?这就意味着人工智能已经达到人类的智力水平了吗?我们无从知晓。

不是人类,却比人类更聪明

可能我们从一开始就找错了方向。例如,图灵测试至今仍未被通过就表明了人工智能并不能从与人类的对话中说服人类,但是就单看运算能力,或者在模式识别以及自动驾驶领域,人工智能已经远远超过了人类。当“弱”人工智能开始做出更多的决定的时候,物联网的拥护者以及科技界的乐观派不停地尝试采取使用更多的算法来处理更多的数据的时候,人工智能会被不停的推动着向前发展。

可能是因为我们迄今还没有人脑级别的人工智能的出现,我们也不清楚我们依赖着现有的算法还能够在这条路上走多远。那些说自动化会摧毁社会并且从根本上会改变社会的运行方式的调查,并不依赖于众多关于模糊的超级人工智能的假设。

也还有一些其他的声音指出我们应该担心人工智能。不能仅仅因为我们无法准确预测人脑级别的人工智能是否会在这个世纪出现,或者能否出现,就不对它真的可能会到来做准备,毕竟乐观的预测者们有可能正确。我们必须保证人类的价值观也被正确的输入进了算法,这样人工智能就能够理解人类的价值观并且做出道德的,负责人的行为。

菲尔.特里斯(Phil Torres),FHF项目(Future Human Flourishing)的主管就这一问题表达了他的看法。他指出如果我们决定从社会层面上解决道德问题—将事物的对错作为输入传递给电脑,那么在接下来的二十年,我们人类自己能够做到这些吗?

所以我们抱着怀疑的态度做着预测。别忘了,人工智能先驱们所预见的问题最终被证明比他们之前所预期的要难得多。这个道理同样适用于今天。对于人工智能,我们仍未准备好。我们必须理解风险并且做好防范措施。当那些科学家在1956年聚会于达特茅斯的时候,他们肯定没想到眼前如此广阔却又模糊的土壤。六十年后的今天,我们仍然不知道未来的路有多远,我们能够走多远。但是,我们仍然继续向前。

-END-

译者 欧阳洵

用数据和模型说话的汽车工程师。

了解如何加入我们

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180120G0A6UO00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券