前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >读AlphaZero论文随想

读AlphaZero论文随想

作者头像
用户1594945
发布2018-07-20 14:18:53
6570
发布2018-07-20 14:18:53
举报
文章被收录于专栏:AI启蒙研究院AI启蒙研究院

感觉才过一个月多,AlphaGo又进一步,推出了AlphaZero。这次除了会下围棋、还会国际象棋和将棋。做到了道德经里说的“一生多”。

据了解,AlphaZero算法可以再8个小时训练击败李世石版本AlphaGo;12小时训练击败世界顶级的国际象棋程序Stockfish;14小时训练击败世界顶级将棋程序Elmo。这是DeepMind团队继AlphaGo Zero的研究问世之后,带给我们的又一全新算法,它是“更通用的版本”。

文章内容依旧是很短,不到5页的内容,基本思路与上一个版本AlphaGo Zero类似,采取将每一步蒙特卡洛数搜索MCTS的结果作为指导,优化神经网络参数,优化的误差函数就是文中的公式(一),也是文中唯一一个公式,与上一个版本一样。而且AlphaZero应用在国际象棋、将棋和围棋中,都使用同样的算法设置、网络架构和超参数。唯一不同是神经网络的输入不同。例如围棋是19*19*17;而国际象棋是8*8*119。因此,我个人估计,这个版本的文章不会再发表在《Nature》上了,毕竟创新之处不多。

这是电脑玩棋牌游戏的终极版本吗?

我觉得这还不是,因为每次落子需要在神经网络的结果基础上,再做一次优化(蒙特卡洛数搜索MCTS一次),才能确定最终的落子位置。最终的版本我个人觉得,应该是不需要MCTS这个步骤,用神经网络的输出值作为落子结果。甚至可以更进一步,将价值估计v都去掉。

AlphaZero与AlphaGo Zero的根本区别?

从AlphaGO(对战李世石版本)、Alpha Mater(网络对战60局版本)、AlphaGo Zero(对战柯洁版本)到现在的AlphaZero。我们看到电脑下棋程序再不断进步,经历了将策略价值网络和二为一,到完全不用人类棋谱为训练数据。这次AlphaZero最大的进步是训练过程,从以前的阶梯式训练(每55%胜率获胜的玩家作为下一轮产生训练数据的模型),到连续训练(也就是维护单一的神经网络不断迭代更新),省去评估的环节。

谷歌的厉害之处在哪儿?

有钱就是人性。尤其是训练阶段动用了5000个TPU生成自我对弈,使用64个第二代TPU训练神经网络。这也都是高校研究者望尘莫及的。我们这些研究者完全能读懂文章,也了解实现细节,但是没钱。。。这个双十一我读博实验室的师弟们不是抢衣服抢电器,而是在抢购GPU,学生命苦啊,做点实验太寒碜了。

未来Alpha还会继续在哪里发力?

我个人看好游戏,因为尤其的动作参数序列化,与围棋完全一致。只是游戏的搜索空间更大,依靠谷歌财大气粗,训练模型我觉得是承受得了的。至于金融行业,Alpha的这套搞法不看好,一是自己产生的数据无法模型有上亿投资者的行为产生的数据,二是没有唯一的决策对错标准,模型误差函数定义不出来。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-12-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI启蒙研究院 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档