目前急速进步的人工智能,真的不再使用人类的棋谱了吗?(上)——大桥拓文六段进行解说

原址:http://diamond.jp/articles/amp/154418?skin=amp

原题:囲碁AIのすさまじい進化をプロ棋士が解説、人間の棋譜はもう不要?

摘自: 『週刊ダイヤモンド』特別レポート

作者:大桥拓文 六段

翻译:找借口安静

谷歌公司的围棋AI“AlphaGo”战胜了人类最强棋手已经过去了大半年了,但是在此期间仍然发布了两个巨大成果。没有导入任何人类棋谱的“AlphaGo Zero”和被使用在围棋之外的“Alpha Zero”。人工智能在飞速进步的现在,我们人类和人工智能该如何面对?大桥拓文六段将对目前围棋AI的现状进行一番讲解。

两篇令人震惊的论文,读懂AlphaGo的急速进步

谷歌公司旗下的DeepMind团队开发的AlphaGo,即便我们知道了会有巨大的进步,但是我们每一次都会备受震惊。他们分别在10月份和12月份发表了两篇令人震惊的论文。

首先在10月份发表的是AlphaGo的最新版本“AlphaGo Zero”。才刚刚知道围棋规则的程序,在没有导入任何人类棋手棋谱的情况下,仅通过自我对局进行强化学习,实力就超越了AlphaGo的所有旧版本。

此后在12月发表了“Alpha Zero”。“Alpha Zero”将“AlphaGo Zero”进行改良之后运用到了其他领域。就像它的名字里看不到“Go”字一样,它在其他棋类里仍然如鱼得水。自我学习2小时之后击败了最强的将棋AI,4小时击败了最强的国际象棋AI,然后用了8小时击败了2016年版的AlphaGo。

通过自我对局学习的AI,难道已经不需要人类的引导了吗?

AlphaGo Zero和Alpha Zero的技术其实差不多。所以在这里着重说明突飞猛进的AlphaGo Zero与目前的其他围棋AI之间的区别。之前的围棋AI,一开始都是导入人类棋手的棋谱进行学习。从人类棋手学到围棋的基本知识之后,通过自我对局再进行强化学习,这是他们的基本套路。

但是,“AlphaGo Zero”根本没有使用人类的范本。什么都不知道的人工智能,就像在棋盘上乱摆一样反复对局,仅仅通过这些数据进行自我学习。

棋盘上一共有19×19=361个交叉点,而它的变化数要比宇宙上的所有原子数还要多。刚开始仅通过随意在棋盘上行棋的方法,本身就很难在如此庞大的数量中找到一手有利的棋。所以为了能更快地进入正轨,这才导入了人类的棋谱。

但是“AlphaGo Zero”刚开始仅通过自己乱七八糟的自我对局,慢慢找到赢棋的手段,然后逐步变强。但是并没有从人类身上获得任何数据,“AlphaGo Zero”展现了人工智能的自我成熟一面,增加了人工智能的可能性。

那么,如此下去,是不是任何人都能创造出AlphaGo Zero那样强劲的人工智能呢?

其实这也带来了一个问题。AlphaGo Zero仅用了3天时间就达到了超越人类的世界顶尖水平。但是这个自我学习,谷歌公司在开发这项技术的时候,使用了2000个拥有超高性能的半导体“TPU”。

多数AI围棋开发者表示,这样的计算量,在家用的电脑里进行的话,需要花几百年时间,即便在小规模的研究室进行也需要花几十年。所以“AlphaGo Zero”不仅是DeepMind的技术成果,还有谷歌莫大的资源支持。这也说明,任何人都不能简简单单地做出如此规模的开发。

但是,这个世界上有一个可以于谷歌抗衡的强者。那就是中国的IT企业,腾讯公司开发的围棋AI“绝艺”。

腾讯在去年11月份,市值超过美国的Facebook公司达到5230亿美元,成为首个市值进入世界前五的中国IT企业。近年来进步显著,也在人工智能投入了大量金额。AlphaGo Zero的论文发布后仅一周,腾讯公司开发的绝艺诞生的新版本,将3个月前的绝艺达成了100%的胜率。人工智能的进步可谓“秒行千里”。

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20180104B0XXWK00?refer=cp_1026

同媒体快讯

相关快讯

扫码关注云+社区