开发 | TensorFlow Agents日前开源,轻松在TF中构建并行强化学习算法

AI科技评论消息,用于在TensorFlow中构建并行强化学习算法的高效基础架构范例TensorFlow Agents日前开源,这个项目是由谷歌的两位研究员James Davidson、Vincent Vanhoucke,以及Danijar Hafner共同研发的。关于这个项目的开源信息他们在GitHub上进行了介绍,AI科技评论将内容进行编译整理。

TensorFlow Agents

TensorFlow Agents为强化学习提供了优化的基础架构,它将OpenAI gym接口扩展到多个并行环境,并能在TensorFlow中训练智能体,进行批量计算。在这个项目中,我们提供BatchPPO,这是针对近端策略优化(Proximal Policy Optimization,PPO)的一个实现。

如果你在研究中使用了我们这个项目的代码,请引用我们之前发布的关于TensorFlow Agents的论文TensorFlow Agents: Efficient Batched Reinforcement Learning in TensorFlow,论文地址:https://drive.google.com/file/d/0B20Yn-GSaVHGMVlPanRTRlNIRlk/view

@misc{hafner2017agents, title={TensorFlow Agents: Efficient Batched Reinforcement Learning in TensorFlow}, author={Hafner, Danijar and Davidson, James and Vanhoucke, Vincent}, year={2017} }

工具:Python 2/3, TensorFlow 1.3+, Gym, rumamel.yaml

说明

先执行如下代码复制数据库并运行PPO算法。

python3 -m agents.scripts.train --logdir=/path/to/logdir --config=pendulum

这里用的算法已经在配置中定义好了,其中pendulum利用了已有的PPO实现。可以在agents/scripts/configs.py中查看更多的预定义配置。

如果想要重新开始运行之前的任务,可以在最后的指令中增加--timestamp=<time>标志,并提供你运行的目录名中的时间戳。

为了将度量可视化,需要从另一个终端启动TensorBoard,然后将浏览器指向http://localhost:2222:

tensorboard --logdir=/path/to/logdir --port=2222

如果要渲染视频,收集OpenAI Gym的统计数据上传至记分板,请输入以下代码:

python3 -m agents.scripts.visualize --logdir=/path/to/logdir/<time>-<config> --outdir=/path/to/outdir/

修正

这个项目的发布能让新的强化学习思想更容易实现。当修正代码之后,你可以从如下几个文件开始执行任务。

  • scripts/configs.py(指定任务和算法的实验配置)
  • scripts/networks.py(被定义为TensorFlow RNNCell的神经网络模型)
  • scripts/train.py(包含训练设置的可执行文件)
  • ppo/algorithm.py(PPO算法的TensorFlow图)

如果要运行所有的单元测试,请输入如下代码:

python3 -m unittest discover -p "*_test.py"

如果有更多问题,可以在 Github上提问。

执行

这次的发布还包括OpenAI Gym环境下的一个批处理接口,它能与TensorFlow无缝集成,实现高效的算法。这是通过如下核心组件实现的:

  • agents.tools.wrappers.ExternalProcess agents.tools.wrappers.ExternalProcess是构造外部进程里的OpenAI Gym 环境的包装(wrapper),它可以调用step()、reset()以及属性访问,转发到进程中,然后等待结果,可以并行运行多个环境而不受Python全局解释器锁(global interpreter lock)的限制。
  • agents.tools.BatchEnv agents.tools.BatchEnv能将OpenAI Gym接口扩展至多个环境中,它可以联合多个OpenAI Gym环境,用step()接受批量的动作,返回观察值、奖励、完成的标记和info对象。如果有多个独立的环境在外部进程中,它们将能被并行处理。
  • agents.tools.InGraphBatchEnv agents.tools.InGraphBatchEnv将batch环境集成到TensorFlow图中,保证step()和reset()函数都可以被调用。观察值、最后的动作、奖励和完成的标记中的batch都存储在变量中,并作为可用的张量。
  • agents.tools.simulate() agents.tools.simulate()将in-graph batch环境和强化学习算法融合成一步,可以在训练循环中调用,这减少了调用会话的数量,并提供了一种简单的方法来训练接下来的算法。

如果要理解这些代码,需要对TensorFlow的控制流运算(尤其是tf.cond(),tf.scan()和tf.control_dependencies())非常熟悉。

GitHub地址:https://github.com/tensorflow/agents

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2017-09-15

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏AI2ML人工智能to机器学习

TF Boy 之初筵 - 分布十三式

我们在 " 机器学习平台的优化器 (平台篇、优化篇)" 里面提到TensorFlow (TF) 速度的成为深度学习的武林第一大帮。 博士好友清华,在这方面也颇有...

532
来自专栏CDA数据分析师

谷歌教你学 AI-第四讲部署预测模型

翻译/校对: Mika 本文为 CDA 数据分析师原创作品,转载需授权 Google Cloud发布了名为"AI Adventures"的系列视频,用简单易懂的...

2036
来自专栏机器之心

资源 | 小米开源移动端深度学习框架MACE:可转换TensorFlow模型

文档地址:https://mace.readthedocs.io/en/latest/

683
来自专栏量子位

TensorFlow 1.2正式发布,新增Python 3.6支持

王小新 编译整理 量子位 出品 | 公众号 QbitAI TensorFlow 1.2.0今日正式发布。 主要功能和改进点: 在Windows系统下新增对Pyt...

3234
来自专栏机器之心

深度 | 详解苹果Core ML:如何为iOS创建机器学习应用?

选自developer.apple 机器之心编译 参与:吴攀 在昨天开幕的 WWDC 2017 开发者大会上,苹果宣布了一系列新的面向开发者的机器学习 API...

3317
来自专栏落影的专栏

GPUImage详细解析(四)模糊图片处理

回顾 解析(一) 解析(二) 解析(三) 这次介绍的GPUImageContext、GPUImageFramebufferCache和GPUImagePi...

3385
来自专栏企鹅号快讯

谷歌TensorFlowLite正式发布,机器学习框架向移动端大步挺进!

上个月,谷歌正式宣布推出针对移动设备和嵌入式设备的轻量级解决方案 TensorFlow Lite。而在此之前,今年 5 月份的谷歌 I/O 大会上他们已经对此进...

1817
来自专栏彭湖湾的编程世界

【计算机网络】数据交换技术和多路复用技术的正(nao)确(can)打开方式

交换的作用 数据交换是计算机网络中两个终端进行数据传输的方式,它又可以分成两种类型:电路交换和分组交换。很显然,问题的核心在于“交换”,那么我们首先要思考的是:...

1706
来自专栏新智元

深度学习开源框架PaddlePaddle发布新版API,简化深度学习编程

【新智元导读】 本文来自百度PaddlePaddle团队成员骆涛,他在文章中介绍了百度深度学习开源框架Paddlepaddle新推出的API,它们能更好地支持分...

2757
来自专栏机器之心

入门 | GPU是如何优化运行机器学习算法的?

33314

扫描关注云+社区