前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >一个AI玩41个游戏,谷歌最新多游戏决策Transformer综合表现分是DQN的两倍

一个AI玩41个游戏,谷歌最新多游戏决策Transformer综合表现分是DQN的两倍

作者头像
量子位
发布2022-07-27 09:43:57
2930
发布2022-07-27 09:43:57
举报
文章被收录于专栏:量子位量子位
Alex 发自 凹非寺 量子位 | 公众号 QbitAI

谷歌AI宣布,在多任务学习上取得了巨大进展:

他们搞出一个会玩41款雅达利游戏的AI,而且采用的新训练方法比起其他算法,训练效率大大提升

此前会玩星际争霸的CherryPi和火出圈的AlphaGo都属于单游戏智能体(Agent),也就是说,一个AI只会玩一种游戏。

多游戏智能体这边,现有的训练算法屈指可数:主要包括时间差分学习算法(Temporal Difference Learning,TD)和行为克隆(Behavioral Cloning,BC)等。

不过为了让一个智能体同时学会玩多款游戏,之前的这些方法的训练过程都很漫长。

现在,谷歌采用了一个新决策Transformer架构来训练智能体,能够在少量的新游戏数据上迅速进行微调,使训练速度变得更快,而且训练效果也是杠杠的——

该多游戏智能体玩41款游戏的表现综合得分,是DQN等其他多游戏智能体的2倍左右,甚至可以和只在单个游戏上训练的智能体媲美。

 100%表示每款游戏的人类平均水平,灰色条代表单游戏智能体,蓝色条代表多游戏智能体

下面就来看看这个性能优秀的多游戏智能体。

新决策Transformer三大亮点

这个处理多款游戏学习的Transformer,采用了一个将强化学习(Reinforcement Learning,RL)问题视为条件序列建模的架构,它根据智能体和环境之间过去的互动以及预期收益,来指导智能体的下一步活动。

说到强化学习,其讨论的主要问题是:在训练过程中,一个面对复杂环境的智能体,如何通过在每个Time Step里感知当前状态和Reward来指导下一步动作,以最终最大化累计收益(Return)

传统的深度RL智能体(如DQN、SimPLe、Dreamer等)会学习一个策略梯度(Policy Gradient),让高Reward的轨迹出现概率变大,低Reward的轨迹出现概率变小。

这就导致它出现一些问题:即需要手动定义一个信息量很大的标量值范围,包含针对于每个特定游戏的适当信息。这是个相当浩大的工程,而且拓展性较差。

为了解决这个问题,谷歌团队提出了一个新方法。

训练纳入数据更多样化

谷歌的这个新决策Transformer,把从入门玩家到高级玩家的经验数据都映射到相应的收益量级(Return Magnitude)中。

开发者们认为,这样可以让AI模型更全面地“了解”游戏,从而让其更稳定并提高其玩游戏的水平。

他们根据智能体在训练期间与环境的互动,建立了一个收益的大小分布模型。在这个智能体玩游戏时,只需添加一个优化偏差来提升高Reward出现的概率。

此外,为了在训练期间更全面地捕捉智能体与环境互动的时空模式,开发者还将输入的全局图像改成了像素块,这样模型就可以关注局部动态,以掌握游戏相关的更多细节信息。

 决策Transformer基本架构示意图

可视化智能体训练过程

此外,开发者们还别出心裁地将智能体的行为可视化。

然后他们发现,这个多游戏决策智能体一直都在关注着包含关键环境特征等重要信息的区域,而且它还可以“一心多用”:即同时关注多个重点。

红色越亮表示智能体对那块像素的关注度越高

这种多样化注意力分配也提高了模型的性能。

拓展性更好

如今规模已成为许多机器学习相关突破的重要驱动力之一,而规模拓展一般是通过增加Transformer模型中的参数数量来实现的。

研究者发现,这个多游戏决策Transformer也是类似的:随着规模扩大,和其他模型相比,其性能提升显著。

Facebook也在研究决策Transformer

谷歌AI使用决策Transformer不仅提高了AI玩多个游戏的水平,还提升了多游戏智能体的扩展性。

除此之外,据谷歌大脑、加州大学伯克利分校和Facebook AI Research合作的一篇论文介绍,决策Transformer架构在强化学习研究平台OpenAI Gym和Key-to-Door任务上也表现出色。

或许决策Transformer正是通用人工智能(AGI)发展的关键因素之一。

对了,谷歌AI表示,相关代码和Checkpoint会在GitHub上陆续开源,感兴趣的小伙伴们可以去看看~

传送门: https://github.com/google-research/google-research/tree/master/multi_game_dt 参考链接: [1]https://twitter.com/GoogleAI/status/1550260410686644224 [2]https://ai.googleblog.com/2022/07/training-generalist-agents-with-multi.html [3]https://arxiv.org/abs/2106.01345 [4]https://zhuanlan.zhihu.com/p/354618420

「人工智能」、「智能汽车」微信社群邀你加入!

欢迎关注人工智能、智能汽车的小伙伴们加入我们,与AI从业者交流、切磋,不错过最新行业发展&技术进展。

ps.加好友请务必备注您的姓名-公司-职位哦~

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见~

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-07-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 新决策Transformer三大亮点
    • 训练纳入数据更多样化
      • 可视化智能体训练过程
        • 拓展性更好
        • Facebook也在研究决策Transformer
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档