首页
学习
活动
专区
工具
TVP
发布

从阿尔法狗到阿尔法元 人工智能动了谁的奶酪

2017年10月,《自然》(Nature)杂志刊出了谷歌Deep Mind团队的新成果。他们推出的新一代围棋人工智能程序阿尔法元(Alpha Go Zero)以100比0的绝对优势战胜上一代人工智能围棋程序阿尔法狗(Alpha Go)。关键是,阿尔法元是在没有人类经验指导的情况下,仅仅凭借围棋基本规则和自我学习而获得了高超的围棋技能。这一胜绩再一次引起公众的震惊和担忧。人们担忧的是,计算机可以不需要人类经验作基础,却远远高于人类学习的水平。这似乎在说,人类的智力已经远远不敌计算机了。在计算机的智力飞速发展的情况下,人类的生存价值和活动空间不可避免地会被这种“更聪明”的人工智能所侵占。目前我们遭遇的事实真的是这样的吗?“阿尔法们”真的来抢人类的奶酪了吗?

如何理解“阿尔法们”的胜利

从阿尔法狗到阿尔法元,计算机的围棋技艺进步神速。但是,这两代阿尔法的胜利究竟意味着什么呢?

在新闻报道中,我们读到这样的叙述: Alpha Go Zero仅用一张神经网络、一台机器和4个TPU,经过自我对弈式的训练,在3天的时间里实现了近500万局自我对弈,便能够超越人类并打败之前的Alpha Go版本。谷歌Deep Mind团队总结道:Alpha Go Zero相比与Alpha Go 的更强大之处在于:“它再也不会受到人类经验的限制,而是可以不断向世界上最强的围棋手——也就是它自己学习到非既定的能力。”

当Alpha Go战胜人类棋手时,人们还可以这样安慰自己:因为Alpha Go是学习了大量人类棋手的实际对弈棋局而获得了下棋的技能,它战胜了某一个棋手其实意味着人类的整体知识和智能的积累战胜了一个个别的人。所以,对棋手个人而言,败给Alpha Go可以说虽败犹荣。但是这一次,Alpha Go Zero完全不从人类的经验中学习,而是仅仅依靠最初的几条围棋基本规则,通过自我对弈的方式自我训练,三天自我对弈500万盘(这个数字与上一代Alpha Go学习了海量棋局,并且自我对弈3000万盘,历经数月训练相比,可谓进步神速)就取得斐然的成就。这很容易让人做出这样的解释,上一代的Alpha Go不敌新一代的Alpha Go Zero,是因为从人类智能中学习的Alpha Go败给了师从纯粹人工智能的Alpha Go Zero,人类的知识或智能限制了Alpha Go的学习,而在抛弃了人类的经验制约以后,计算机的智能可能远远把人类抛在后面。也就是说,这是人类智能对人工智能的失败。

面对这样的担忧,人类比以往更加需要确证自己的存在价值。这种确证开始于对“智能”的理解。于是,我们不禁要追问:人工智能的“智能”的真正含义是什么呢?

首先,人工智能在根本上是“计算机”。因此,它们在计算任务上超过人类并不应是一件需要担忧的事件,而应是值得高兴的事件。正如人类制造了汽车——可以被称为“移动机”。当汽车的移动速度远远超过人的极限时,并没有人为此担忧人类移动能力的价值受到了威胁。计算机最初被发明出来,是为了让它帮人处理“按照既定规则进行计算”的任务。计算机在计算任务上超越人类,正像汽车的移动能力超越人类一样,它们所体现出来的“优势”不正是由人类智能所“创造”的吗?

其次,对弈是人类发明的一种智力游戏。这类游戏的共同特征是有明确的规则和清晰的边界,并且对游戏的最后成果有精确的衡量指标。对弈双方必须在规则和边界的限制下,通过合理性计算而实现“赢棋”的目标。这样的活动是“结构良好任务”。针对结构良好任务,解决办法是按照既有的规则“计算”尽可能多的中间状态,并对每一种中间状态的效价进行评估,并选择最佳的路径。对弈者能够评估的中间状态越多,赢棋的可能性就越大。但是这种评估显然受到计算能力的限制。我们把计算过程中的中间状态的总和称为“问题空间”,那么初始规则越少,问题空间就越大。在人类的棋类游戏中,围棋是初始规则最简单、棋盘格子最多的一种,所以,围棋对弈计算的问题空间非常巨大。在Alpha Go诞生之前,有很多人相信计算机的计算能力无法处理围棋的问题空间。谷歌的研究团队在计算方式上的革新让计算机的计算能力有了长足的进步,所以才有了战胜人类棋手的成绩。但是我们也应该看到Alpha Go和新一代的Alpha Go Zero所处理的都是“结构良好问题”。解决结构良好问题的关键是计算能力,所以,两代Alpha Go的成就其实是基于计算能力的提升。那么,计算能力能不能等同于人类的“智能”呢?

通过“反转图灵测试”理解人的智慧价值

要比较人工智能和人类的“智能”的异同或高下,我们需要对人类的“智能”做出界定。但是人的智能究竟意味着什么,这个问题至今尚未有定论。在这里,我们可以尝试着通过“反转图灵测试”的思维实验来厘清人类“心智”或“智能”的一些重要特征。

“图灵测试”是图灵在提出人工智能的基础模型时为鉴定人工智能的“智能”水平而设计的一种评价标准。如果一个计算机程序可以在限定的范围内让测试者不能分辨是计算机还是人类,那么我们就可以说这个计算机程序具有了和人类一样的“智能”。“图灵测试”作为一个标准,一直在指引着人工智能的设计理念,即努力让计算机的表现更像人。可以看出,“图灵测试”实际上基于一个潜在的预设,即人类的智能应该或可能是什么样的,并且以此指引着计算机朝着这个假设发展。但是,人的智能实际上具有什么特征,其实我们至今是不清楚的。于是,我们不妨把图灵测试颠倒过来,让人去模仿计算机,也就是以我们能够清晰认识的东西作为参照,反过来观照人类智能的意义。假如我们让一个人去模拟一台计算机,那么测试者将如何识别呢?这就是“反转图灵测试”。为了辨别对方是真实的人或是计算机,测试者只需要让他(或它)在有限时间内完成大量的计算任务。这是计算机可以轻易完成而人绝对难以做到的。通过这个思维实验,我们发现,人类和计算机的差异正是在于计算能力的差异。这样看来,我们不难理解,弈棋任务作为结构良好问题,其核心在于对问题空间的计算,因此,在这类任务中人不敌计算机是理所当然的。关键是,人类以有限的计算能力却能够创造出如此丰富的知识和技能,这说明,计算能力并不是做出这些成绩的唯一基础;此外,除了不那么强大的计算能力——和计算机相比,人类一定还拥有其他更强大的能力。

从知识论的角度看,人类的知识建构有两条途径,一种是自上而下的演绎,另一种是自下而上的归纳。演绎是依据既定的论证规则而实现知识的精致化加工;归纳则是从经验中形成一般化的认识。关于演绎,人类已经形成了相对完备的规则,即逻辑规则。正是在已有的形式化逻辑规则的指导下,计算机才可能完成各种“思维”活动。然而,关于归纳则始终没有统一有效的“归纳逻辑”。计算机的“归纳学习”也是通过大量尝试性练习而形成的一种概率评估,比如贝叶斯计算。我们知道,人和动物的天然倾向显然不是通过概率计算来进行归纳推理的,也就是说,归纳不是一个计算过程。于是,我们可以将演绎和归纳分别对应于“可计算”的任务和“不可计算”的任务。

显然,计算机被制造出来就是让它帮助人类应对“可计算”任务。计算机科学家让今天的计算机能够出色地完成这一类任务,而这正是作为制造者的人类的“智能”的成就。计算机在“可计算”任务中的表现超越了人类,但是人类依然在“不可计算”任务中保持自己的优势。哪些事情属于“不可计算”任务呢?诸如:真正的创造性问题,结论超出了前提阈界的问题等。新闻报道说Alpha Go Zero仅仅依靠几条围棋的初始规则就“实现了从0到1的转变”等。实际上,Alpha Go Zero所做的事情和欧几里德从几条公理出发,演绎出数百条几何定律一样,是通过演绎途径对初始规则的分析,从而实现知识的精致化演变。这样的推衍固然显示了演绎推理的创造力,而真正创造性地“从0到1”的转变却是“发明”围棋的人提出围棋初始规则的那一步。

假如,我们只是给计算机一把棋子,没有任何规则,也没有任何要求,那么,它会计算出什么样的结果呢?它会不会突然停下正在执行的任务,“看着”这些棋子发呆,并开始在“地上”画出一些格子,并想象出一些规则,然后开始“玩”一种叫做“棋”的游戏呢?如果真的有一天计算机能够自己“生成”一系列规则,发明了围棋、象棋之类的游戏,那才是人类应该担忧的情况。

(作者单位:西南民族大学社会学与心理学学院)

原标题:阿尔法元动了谁的奶酪

来源:中国社会科学网-中国社会科学报

责任编辑:刘星 排版编辑:刘淼

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180227G0QOS300?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券