为什么规则明确的棋类游戏,人工智能迟早会战胜人类?一起来分析

此前Alphago下围棋战胜人类顶尖棋手,引起了轰动。AlphaGo使用了很多机器学习技术,包括强化学习、深度学习等,所以人们欢呼机器学习的伟大胜利。首先要肯定的是,战胜人类顶尖围棋手确实是一个重大成就。但另方面,人工智能学界早就有这样的认识:对于规明确的棋类游戏,机器迟早能战胜人类。一般说围棋很难,是因为它所涉及的状态空间大致达到10的172次方的规模(作为参照,宇宙中原子总数大约是10的80次方),这意味着传统搜索之类的技术已然失效,更不用说强力枚举绝不可能。但围棋虽是已知棋类游戏中最困难的,它并非人工智能领域所面临的最困难任务。简单说,下围棋时每个棋子落在哪里,双方都看得非常清楚;什么是“嬴”,双方也有共识;很多真正困难的任务会涉及不精确感知、不完备信息,乃至无共识目标,这样一些任务的状态空间规模甚至接近无限。

Alphago获胜后出现了一些过度炒作,但严肃的机器学习界很清楚地认识到, AlphaGo并未提供通用人工智能的“解决之道”,它还有很大缺陷和不足。例如在人机大战的第四局,李世石九段下出了被围棋界誉为“神之一手”的第78手,后来这局棋以 Alphago失败告终。 Deep Mind团队查看比赛日志,发现第78手后 AlphaGo一直以为自己很好,直到第87手才发现前面是误判、下错了。那在这差不多10手棋里,从职业棋手角度看 AlphaGo是什么状态呢?用国家围棋队刘菁八段的话来说“就跟不会下棋一样了”所以这其实是一个什么现象?就是我们人类犯错的话,水平可能会从九段降到八段;而机器如果犯错的话,水平能从九段直降到业余!从这个角度来看,人工智能程序离所谓的超越人类还很远,这里的关键是缺乏足够的鲁棒性。

在机器学习里,我们以往的研究可以说主要是假设在封闭静态的环境下进行的,因为要假定很多东西是不变的,例如数据分布不变、样本类别不变、样本属性不变,甚至评价目标不变等。但现实世界是开放动态的,一切都可能发生变化。一旦某些重要因素变了,原有模型马上就会表现很差,而且没有理论保证最差到什么程度。所以,开放环境下的机器学习是一个很困难的挑战,这里鲁棒性很关键,就是好的时候要好,差的时候也不能太差。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181213A0Y9B400?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券