还记得DeepMind那个会跑酷的AI吗?它打算用这套Python强化学习工具吊打OpenAI

还记得这个会跑酷的机器人吗?

5个多月前,DeepMind连发三篇强化学习论文,让机器人在仿真环境中自己就能学会灵活多变的各种动作,包括步行、跑动、跳跃、翻墙,等等。

今天,DeepMind公布了这三篇论文中所用的强化学习控制套件dm_control,它是一套基于MuJoCo物理引擎的Python强化学习的开发环境,可以在一套标准化的架构上执行各种不同的强化学习任务,并使用可解释性奖励来评估强化学习算法的学习效果。

控制套件的GitHub代码库地址是:https://github.com/deepmind/dm_control

DeepMind还为该控制套件提供了一份完整的使用说明:

https://github.com/deepmind/dm_control/blob/master/tech_report.pdf

DeepMind说明文档的介绍

对于实体世界的控制,是通用智能的一个必备组分,甚至还可以说是先决条件。事实上,唯一已知的通用智能案例,就出现在业已操控世界数百万年之久的灵长类身上。

实体控制任务有着许多共通的特性,所以可以将其视为一大类独特的行为问题。不同于棋类游戏、语言或其他符号学领域,在状态、时间和行为的层面,实体任务从根本上就是连续的。其动力学遵循二阶运动方程,这就意味着其基本状态是由类似于位置和速度的变量所构成,而状态的导数则类似于加速度。感知信号(亦即观察)通常具备有意义的物理单位,并在相应的时间范围内随之变化。

2010年以来,强化学习(Reinforcement Learning)在电子游戏(Mnih, 2015)等难题上的应用取得了很大的进展。街机游戏学习环境(ALE,Bellemare et al. 2012)是这些进展的一个重要的推动因素,它为评估和比较这些学习算法提供了一套标准的衡量办法。对于连续控制的问题,DeepMind控制套件也在提供一套类似的标准。

在连续控制领域,拥有各种模拟环境的OpenAI Gym(Brockman等人,2016)已经成为此类连续强化学习算法(Duan等人,2016; Henderson等人,2017)事实上的标准。同样作为一系列连续强化学习的标准,DeepMind控制套件还有一些显著的差异。DeepMind专注于连续控制问题,例如,将观察与相似的单位分开(位置、速度、力等),而非把将它们连成一个向量。

我们统一封装的奖励结构可以提供可解释的学习曲线,并且汇总了全套算法的性能测量。此外,我们强调使用设计模式统一的高质量完整代码,同时提供可读性、透明性与可扩展性都很强的代码库。最后,DeepMind控制套件不仅拥有OpenAI Gym已有的各项环境,并且还增加了更多功能。

关于该套件的具体使用,DeepMind还专门上传了一段视频

dm_control安装步骤及软件环境要求:

1. 从MuJoCo网站的下载页面下载MuJoCo Pro 1.50版本。注意:你必须在安装dm_control前安装好MuJoCo Pro,因为dm_control的安装脚本要根据MuJoCo的头文件生成Python Ctypes的绑定文件。默认情况下,dm_control会假定MuJoCo Zip文件将被提取到~/.mujoco/mjpro150文件夹。

2. 安装dm_control的Python包:可以运行pip命令“pip install git + git://github.com/deepmind/dm_control.git”(随后将推出PyPI);或直接克隆本代码库并执行“pip install /path/to/dm_control/”命令。在安装时, dm_control在~/.mujoco/mjpro150/include路径下查找步骤1中的MuJoCo头文件,你也可以用headers-dir命令行参数自定义该路径。

3. 在运行dm_control时,需要为MuJoCo安装许可证密钥。更为详细的信息,可参阅MuJoCo许可证密钥页面https://www.roboti.us/license.html。默认情况下,dm_control会在~/.mujoco/mjkey.txt路径下查找MuJoCo许可证密钥文件。

4. 如果将许可证密钥 (例如,mjkey.txt) 或MuJoCo Pro所提供的共享库(例如,libmujoco150.so或libmujoco150.dylib)安装到非默认路径,则需要分别使用MJKEY_PATH和MJLIB_PATH环境变量来指定其路径。

macOS用户使用Homebrew安装的有关说明:

1. 只要你是用Homebrew安装的Python解释器 (注意:不是系统默认的解释器),使用上述pip安装命令一般是可以正常工作的。

2. 使用OpenGL前,需要先通过“brew install glfw”命令从Homebrew安装glfw软件包。

3. 运行之前,需要先用GLFW库的路径来更新DYLD_LIBRARY_PATH环境变量,即运行命令“export DYLD_LIBRARY_PATH=$(brew --prefix)/lib:$DYLD_LIBRARY_PATH”。

dm_control快速开始代码:

更多使用细节,请查阅DeepMind所提供的说明文档:

https://github.com/deepmind/dm_control/blob/master/tech_report.pdf

你可以安装DeepMind这个dm_control试一试,看一看它比OpenAI的Gym到底强在哪里?

热文精选

本文来自企鹅号 - AI科技大本营媒体

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏应兆康的专栏

13. 快速构建你的第一个系统,然后进行迭代

你想建立一个新的反垃圾邮件系统,你的团队有以下想法: • 收集一个含有大量垃圾邮件的训练集。例如,设置一个“蜜罐”:故意发送虚假的电子邮件给已知垃圾邮件发送者,...

32710
来自专栏AI科技大本营的专栏

还记得DeepMind那个会跑酷的AI吗?它打算用这套Python强化学习工具吊打OpenAI

还记得这个会跑酷的机器人吗? 5个多月前,DeepMind连发三篇强化学习论文,让机器人在仿真环境中自己就能学会灵活多变的各种动作,包括步行、跑动、跳跃、翻墙,...

35312
来自专栏程序人生 阅读快乐

Python密码学编程

本书主要介绍了加密算法,同时从Python编程的角度来引导读者将加密算法更好地实现。书中不仅讲述了详细的算法理论,还附以详细的代码示例帮助读者更好地学习算法,并...

251
来自专栏PaddlePaddle

【AI核心技术】课程十六:突破障碍的LSTM

UAI与PaddlePaddle联合推出的【AI核心技术掌握】系列课程持续更新中!

872
来自专栏HansBug's Lab

【LATEX】个人版latex论文模板

以下是我的个人论文模板,运行环境为Xelatex(在线ide:Sharelatex.com) 鉴于本人常有插入程序的需求,故引用了lstlisting \Req...

30912
来自专栏目标检测和深度学习

谷歌GPU资源免费啦

注:本文编译自medium,原英文链接:https://medium.com/@nickbourdakos/train-your-machine-learnin...

3877
来自专栏机器学习算法全栈工程师

免费使用谷歌GPU资源训练自己的深度模型

作者:刘威威 编辑:黄俊嘉 注:本文编译自medium,原英文链接:https://medium.com/@nick...

4588
来自专栏PPV课数据科学社区

用R进行文本分析初探——以《红楼梦》为例

一.写在前面的话~   刚吃饭的时候同学问我,你为什么要用R做文本分析,你不是应该用R建模么,在我和她解释了一会儿后,她嘱咐我好好写这篇博文,嗯为了娟儿同学,细...

3845
来自专栏分子生物和分子模拟计算

利用Chimera进行简单快速的MD

932
来自专栏磐创AI技术团队的专栏

Tensorflow 免费中文视频教程,开源代码,免费书籍.

Free-Tensorflow Tensorflow 免费中文视频教程,开源代码,免费书籍. ? 官方教程 官方介绍 https://tensorflow.go...

3096

扫码关注云+社区