前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >4分钟视频讲解DeepMind论文:AI在复杂环境中学习运动

4分钟视频讲解DeepMind论文:AI在复杂环境中学习运动

作者头像
新智元
发布2018-03-22 12:03:53
9470
发布2018-03-22 12:03:53
举报
文章被收录于专栏:新智元

【新智元导读】DeepMind 的论文 Emergence of Locomotion Behaviours in Rich Environments 探索了丰富的环境如何有助于促进复杂行为的学习。我们为大家推荐一个短视频,很好地阐释了 DeepMind 正在进行的一系列相关研究。

复杂环境中的虚拟人物动作学习

强化学习范式原则上允许通过简单的奖励信号直接学习复杂的行为。然而,在实际操作中,通常要手动设计一些奖励函数以促成实现某些特定的解决方案,或者从演示数据中将其推导出来。DeepMind 的论文 Emergence of Locomotion Behaviours in Rich Environments 探索丰富的环境如何有助于促进复杂行为的学习。

这篇4分钟的视频论文解析很好地讲解了论文的大意,特推荐给读者。

具体来说,我们在不同环境环境下训练智能体,发现这样可以增强智能体的稳健行为,使其在一系列任务中表现良好。我们在此展示这种运动原则,这些行为以奖励敏感性高闻名。我们使用基于前向传播的简单奖励函数,在多种具挑战性的地形和障碍物上训练几个虚拟人物。使用策略梯度强化学习的一种新的可扩展变体,我们的虚拟人物学习在没有明确的基于奖励的指导下如何根据所处环境跑动、跳跃,蹲伏和转弯。视频中展现了这种学习行为的部分亮点。

下面是论文中的更多图示:

Planar Walker(左)、Humanoid(中)和MemoryReacher(右)任务中的DPPO基准性能。

网络架构示意图

实验中使用的地形类型的示例。

Walker Skill:一个典型的 Planar Walker 策略走过不平整地面、跃过一个障碍、跳过一条沟和蹲下穿过一个平台下方的延时图像。

这是一个典型的 Quadruped策略越过间隙(左)和在障碍物中穿行的延时图像。

a)课程培训:对具有不同统计数据的障碍课程培训策略的评估:“regular”课程包含任意交错的高低障碍(蓝色);“curriculum”课程则随着课程进度逐渐增加障碍的高度(绿色)。在训练期间,我们对低/“容易”障碍(左)和高/“挑战”障碍(右)的验证课程进行评估。在“curriculum”课程上训练的政策进步更快。b)Planar Walker 策略(左)和Quadruped策略(右)的稳健性:我们评估相比较于在平地的训练(蓝),跨越障碍的的训练(绿)如何增强了策略的稳健性。我们对基于地面摩擦力、地形表面、虚拟人物的身体机能强度和地面倾斜等难以观察的变化对策略的表现进行评估。在某些情况下,在跨越障碍地形中训练的策略存在显著优势。

这是 Humanoid 根据周围地形运动的一系列延时图像。

原文地址:http://blog.floydhub.com/coding-the-history-of-deep-learning/

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-09-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档