PaddlePaddle发布新版API,简化深度学习编程

PaddlePaddle是百度于2016年9月开源的一款分布式深度学习平台,为百度内部多项产品提供深度学习算法支持。为了使PaddlePaddle更加易用,我们已经做了一系列的工作,包括使用Kubernetes集群管理系统来进行部署与运行。

2017年3月11日,我们很高兴地发布新API的Alpha版0.10.0rc1,以及《深度学习入门教程》。目前教程包括八个示例程序,均可以在Jupyter Notebook上运行,即用户可以通过网页浏览文档并运行程序。

使用新API,PaddlePaddle的程序代码将大幅缩短。下图对比展示了一个卷积神经网络在旧API(图左半边)和新API(图右半边)的效果。

新API能达到如此显著的代码简化效果,有以下三个关键的设计思想。

一个新的概念模型

我们的设计原则是:让用户在神经网络中表达和解决实际的问题,并用更加灵活的方式来描述新的深度学习算法。因此,新模型包含以下几部分概念:

  • 模型(model)是一个或多个拓扑结构的组合。
  • 拓扑结构(topology)是一系列层的表达式。
  • 层(layer)可以是任何类型的计算函数,包括损失(cost)函数。
  • 有些层有梯度参数,有些层没有,大多数损失函数没有参数。
  • 在一些拓扑结构中,层与层之间共享参数。
  • 对于多个拓扑结构间存在参数共享的情况,PaddlePaddle能自动找出并创建这些参数。

下面,通过两个例子来展示我们的一些设计思想。

层与层之间共享参数

假设我们要学习一个文本词向量f,训练样本是“对查询Q来说,搜索结果A比B更准确”,任务目标是:sim(f(A), f(Q)) > sim(f(B), f(Q)),也就是f(A)和f(Q)的相似度,大于f(B)和f(Q)的相似度。为了学习f,我们构建了一个三分支的网络结构:

A -> f -\
Q -> f --> cost
B -> f -/

这里的模型实际上是x -> f,但我们需要重复三次来学习f,以下伪代码展示了如何构建这样一个模型:

def f(in):
    e = paddle.layer.embedding(in, parameter_name="embedding")
    o = paddle.layer.softmax(e, parameter_name="semantic")
    return o

# 创建三个拓扑结构(子模型),由于它们对应每一层的参数名都相同,因此三个拓扑结构共享参数。
fA = f(paddle.layer.data(input_name="A"))
fB = f(paddle.layer.data(input_name="B"))
fQ = f(paddle.layer.data(input_name="Q"))

# 使用交叉熵代价损失函数,并取最小值。
topology = paddle.layer.less_than(
               paddle.layer.cross_entropy_cost(fA, fQ),
               paddle.layer.corss_entropy_cost(fB, fQ))

# 自动创建参数
parameters = paddle.parameters.create(topology)

拓扑结构之间共享参数

假设GAN模型包含两个拓扑结构d0和d1,d0和d1之间共享了参数。因此在训练过程中,更新一个拓扑结构的参数时可能需要同时更新另一个。如果使用旧API,用户将不得不访问非常底层的API,这部分API接口通常相对晦涩,且文档不全。而使用新API,GAN模型仅需几十行即可,伪代码如下:

def G(in):
    # 生成器,本示例中假设只含有一层。
    return paddle.layer.fc(in, parameter_name="G") 

def D(in, parameters_mutable);
    # 对抗器,本示例中假设只含有一层。
    # parameters_mutable表示是否需要更新参数。
    return paddle.layer.fc(in, parameters_name="D", parameters_mutable)

# 创建第一个拓扑结构d0,包括生成器G和对抗器D,但训练过程中只更新G的参数。
d0 = paddle.layer.should_be_false(
         D(G(paddle.layer.data()),
           False))

# 创建第二个拓扑结构d1,只包含对抗器D,训练过程中更新D的参数。
# 注意:d1和d0的参数是共享的。
d1 = paddle.layer.should_be_true(D(paddle.layer.data()))

# 自动创建参数
parameters = paddle.parameters.create([d0, d1])

可组合的数据加载模块

在工业届的AI应用中,数据加载部分通常需要大量的源代码。为了减轻用户的这部分工作量,新API的数据接口设计包含几个部分:

  • reader:从本地、网络、分布式文件系统等读取数据,也可随机生成数据,并返回一个或多个数据项。
  • reader creator:一个返回reader的函数。
  • reader decorator:装饰器,可组合一个或多个reader
  • batch reader:与reader类似,但可批量返回一个或多个数据项。

下面展示了一个随机生成数据,并返回单个数据项的reader creator函数:

def reader_creator():
    def reader():
        while True:
            yield numpy.random.uniform(-1, 1, size=784)
    return reader

新API还有助于数据加载操作的复用。例如,我们定义两个reader,分别是impressions()clicks(),前者用于读取搜索引擎的日志流数据,后者用于读取点击流数据;然后,我们可以通过预定义的reader decorator缓存并组合这些数据,再对合并后的数据进行乱序操作:

r = paddle.reader.shuffle(
      paddle.reader.compose(
        paddle.reader(impressions(impression_url), buf_size=8192),
        paddle.reader(clicks(click_url), buf_size=8192),      4096)

如果我们希望只使用数据集中的前5000个样本来进行小型实验,代码如下:

paddle.reader.firstn(r, 5000)

此外,我们发布了paddle.datasets包,为教程中的八个示例程序都提供了预定义好的数据加载接口。第一次调用时会自动下载公共数据集并进行预处理,之后的调用则会从本地缓存中自动读取。

更高层次的API

PaddlePaddle是一个诞生在工业界的系统,从一开始就强调支持分布式训练。但在编写分布式程序时,旧API暴露了很多用户不需要知道的细节。另外,PaddlePaddle的C++代码中的训练过程是一个for循环结构,不能跑在交互式的Jupyter Notebook上。因此,我们发布了新API,提供了一些更高层次的接口,如train(训练接口)、test(测试接口)和infer(应用接口)。这些新API既能在本地运行,将来也支持在Kubernets集群上运行分布式作业。

以上述的三分支模型和GAN模型为例,下面展示traininfer的使用思路。

####三分支模型####
# 训练时,使用read_ranking_model_data读入数据,更新topology中的parameters。
paddle.train(topology, parameters, reader=read_ranking_model_data)

# 应用时,因为fA、fB和fQ共享参数,因此只需要fA的参数即可。
[testA, testB, testQ] = read_ranking_model_data()
print "The sematic-vector of testA: ", paddle.infer(fA, parameters, testA)
####GAN模型####
# 循环训练d0和d1,注意两者的训练数据不同。
for ...:
    train(d0, parameters, reader=read_from_rng)
    train(d1, parameters, reader=read_from_realistic_images)

# 使用d1来做应用:
print "D thinks a batch of images are realistic", paddle.infer(d1, parameters, read_mnist_images)

我们会持续优化新API,上述设计思想的具体实现会在0.10.0版中完成,同时也欢迎您的评论、反馈和代码贡献!

参考文献

1.PaddlePaddle’s New API Simplifies Deep Learning Programs.

2.PaddlePaddle Design Doc.

3.PaddlePaddle Python Data Reader Design Doc.

关于《深度学习入门教程》

这本书脱胎于PaddlePaddle Team的线上教材《深度学习入门》,包括新手入门、识别数字、图像分类、词向量、情感分析、语义角色标注、机器翻译、个性化推荐等内容。

以下是《深度学习入门》一书的目录:

在线阅读:http://book.paddlepaddle.org/index.html

原文发布于微信公众号 - PaddlePaddle(PaddleOpenSource)

原文发表时间:2017-05-02

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器学习算法原理与实践

tensorflow机器学习模型的跨平台上线

    在用PMML实现机器学习模型的跨平台上线中,我们讨论了使用PMML文件来实现跨平台模型上线的方法,这个方法当然也适用于tensorflow生成的模型,但...

2162
来自专栏数据魔术师

运筹学教学|Berders decomposition (二)应用实例及算法实现(附源代码及详细的代码注释)

我们在运筹学教学|Benders decomposition(一)技术介绍篇中已经介绍了Benders Decomposition的基本原理,下面为大家提供具体...

5357
来自专栏落花落雨不落叶

写了个学习正则的小工具

1273
来自专栏AI科技评论

实战 | BERT fine-tune 终极实践教程

AI科技评论按:从 11 月初开始,google-research 就陆续开源了 BERT 的各个版本。google 此次开源的 BERT 是通过 tensor...

6575
来自专栏Script Boy (CN-SIMO)

魔法少女【动态规划问题】——NYOJ1204

1192
来自专栏SIGAI学习与实践平台

【免费线上实践】动手训练模型系列:条件GAN

从无序的输出到按照类别输出,Conditional Generative Neural Networks到底借助了什么样的魔(xin)法(xi)?点击下方小程序...

1365
来自专栏大数据智能实战

LargeVis可视化技术学习

大图可视化一直是大数据可视化领域的一个关键技术,当前有各种办法,但是今年出来了一个LargeVis的技术,因此对这个技术进行复现和学习一下。 前面有很多基础理论...

4257
来自专栏和蔼的张星的图像处理专栏

LCT代码跑起来先文章思路总结

论文才刚开始看,但是代码先跑了一下看结果,有一点小坑,记录下: 首先去论文的github上去下载代码:点这里 readme里其实写了怎么搞:

5593
来自专栏机器学习算法工程师

史上最详细的XGBoost实战(上)

作者:章华燕 编辑:祝鑫泉 零 环境介绍: · Python版本:3.6.2 · 操作系统:Windows · 集成开发环境:PyCharm 一 安装Pyt...

6894
来自专栏ATYUN订阅号

计算机视觉项目:用dlib进行单目标跟踪

本教程将教你如何使用dlib和Python执行目标跟踪(object tracking)。阅读今天的博客文章后,你将能够使用dlib实时跟踪视频中的目标。

8102

扫码关注云+社区

领取腾讯云代金券