开发 | 用PyTorch还是TensorFlow?斯坦福大学CS博士生带来全面解答

AI 科技评论按:关于深度学习的框架之争一直没有停止过。PyTorch,TensorFlow,Caffe还是Keras ?近日, 斯坦福大学计算机科学博士生Awni Hannun就发表了一篇文章,对比当前两个主流框架PyTorch和TensorFlow。

AI 科技评论编译如下:

这篇指南是我目前发现的PyTorch和TensorFlow之间的主要差异。写这篇文章的目的是想帮助那些想要开始新项目或者转换深度学习框架的人进行选择。文中重点考虑训练和部署深度学习堆栈组件时框架的可编程性和灵活性。我不会权衡速度、内存使用情况等性能。

结论

PyTorch更适合于在研究中快速进行原型设计、业余爱好者和小型项目,TensorFlow则更适合大规模的调度,尤其当考虑到跨平台和嵌入式调度操作时。

准备时间

优胜者: PyTorch

PyTorch实际上是NumPy的替代,它支持GPU,有着更高级的功能,可以用来构建和训练深度神经网络。

如果你熟悉NumPy、Python和常见的深度学习概念(卷积层、递归层、SGD等),那么学习Python对你来说会很容易。

而TensorFlow则可以看成是一种嵌入Python的编程语言。当你在编写TensorFlow代码时,它们会通过Python编译成一张图,然后由TensorFlow执行引擎运行。我看到过刚使用TensorFlow的人因为这个额外的间接层而苦思冥想。也因为如此,想用TensorFlow还需要学一些额外的概念,比如会话、图、变量作用域和占位符等。要运行基本模型,还需要更多的样板代码。使用TensorFlow的前期准备时间肯定比PyTorch要长。

图创建和调试

优胜者: PyTorch

创建和运行计算图可能是这两个框架最大的不同。在PyTorch中,图架构是动态的,这意味着图是在运行时创建的。而在TensorFlow中,图架构是静态的,这意味着先编译出图然后再运行。

下面是一个简单的例子,在PyTorch中可以使用标准的Python语言编写for循环结构

for _ in range(T):

h = torch.matmul(W, h) + b

你可以在这段代码的执行过程中改变T的值。而在TensorFlow中,需要使用控制流运算(control flow operation)来创建图,例如tf.while_loop。对于更常见的结构,TensorFlow可以执行dynamic_rnn语句,但是创建自定义的动态计算更加困难。

PyTorch中简单的图架构更容易推导,或许更重要的一点是,它更容易调试。调试PyTorch代码如同调试Python代码,可以使用pdb并在任何地方设置断点。而调试TensorFlow代码并不那么容易,你有两个选择,一是请求会话中你想要检查的变量,二是学习和使用TensorFlow调试器(tfdbg)。

覆盖率

优胜者: TensorFlow

因为PyTorch在逐渐发展,我认为两者之间的差距会缩小到零。然而,目前仍有一些TensorFlow支持但PyTorch不支持的功能,如下所示:

沿着维度翻转张量 (np.flip, np.flipud, np.fliplr) 检查张量是空值还是无限值(np.is_nan, np.is_inf) 快速傅里叶变换(np.fft)

此外,TensorFlow的contrib包中有更多比PyTorch更高级的函数和模型。

序列化

优胜者: TensorFlow

在这两种框架下保存和加载模型都很简单。PyTorch有一个特别简单的API,既可以保存模型的所有权重,也可以pickle全部类。

TensorFlow的Saver对象也很容易使用,并为检查点(check-pointing)提供了更多选择。

在序列化中TensorFlow的主要优点是可以将整个图保存为协议缓冲区。这包括参数和运算。此外,该图可以通过其他支持的语言(C++,Java)加载。这对不支持Python的调度栈来说至关重要。理论上,在改变模型源代码之后,你想要运行旧模型时它也能有所帮助。

调度

优胜者: TensorFlow

对于小规模的服务器端调度,两个框架都很容易封装在诸如Flask web服务器中。

不过,TensorFlow支持移动和嵌入式部署。可以确定的说,这比包括PyTorch在内的大多数深度学习框架支持功能的都要多。将TensorFlow部署到Android或iOS上确实需要大量的工作,但至少你不必用Java或C++重写模型的整个推理程序。

此外,TensorFlow Serving支持高性能的服务器端部署。我没有使用过TensorFlow Serving,因此不能很确信地写出它的利弊。由于机器学习服务使用的频率很高,我猜想这是人们坚持使用TensorFlow的充分理由。除了性能之外,TensorFlow Serving的一个明显特点是,支持轻松地换用模型而不会降低服务性能。

文档

平手

我在两种框架的文档中都找到了我需要的东西。Python的 API在两个框架中都有良好的文档记录,并且有足够的例子和教程来学习这两种框架。

一个比较边缘的问题是,PyTorch的 C语言库大多是无文档记录的,不过这只影响到编写定制的C语言扩展程序,而且这种操作是否有助于软件还存疑。

数据加载

优胜者: PyTorch

PyTorch中用于数据加载的API设计得很好。接口在数据集、采样器和数据加载器中有明确规定。数据加载器接收数据集和采样器,根据采样器的调度,在数据集上生成迭代器。加载并行数据就像把num_workers语句传递到数据加载器一样简单。

我在TensorFlow还没发现特别有用的加载数据的工具,例如readers, queues, queue runners等,都不够好。部分原因是因为将想要运行的所有预处理代码添加到TensorFlow图中并不总是直接的,例如计算时频谱(spectrogram)。

而且,API本身更繁琐,更难以学习。

设备管理

优胜者: TensorFlow

TensorFlow管理设备时的无缝性非常好。通常不需要规定任何东西,因为默认已经设好了。例如,如果GPU可用,TensorFlow将默认在GPU上运行。在PyTorch中,即使支持CUDA,都必须明确地将所有东西移到设备上。

TensorFlow设备管理的唯一缺点是,即使你只使用一个GPU它也会默认占用所有GPU的显存。简单的解决方法是用CUDA_VISIBLE_DEVICES语句指定显卡。但有时会忘了设置,所以当GPU实际上处于空闲状态时,会显示内存不足。

在PyTorch中,代码需要更频繁地检查CUDA的可用性和更明确的设备管理,当编写能够同时在CPU和GPU上运行的代码时尤甚。另外,将GPU上的PyTorch Variable转换为NumPy数组有点繁琐。

numpy_var = variable.cpu().data.numpy()

自定义扩展

优胜者: PyTorch

在这两种框架中都可以用C语言、C++或CUDA构建或绑定自定义扩展。但TensorFlow需要更多的样板代码,即使它支持多种类型和设备。在PyTorch中,只需为每个CPU和GPU版本编写一个接口和相应的实现。用这两种框架来编译扩展都很直接,并且不需要下载除了pip安装包之外的任何头文件或源代码。

扩展

  • 关于TensorBoard

TensorBoard是用于展示训练机器学习模型过程的可视化工具。它是TensorFlow自带的最有用的功能之一。只需要通过训练脚本中的一些代码片段,就可以查看任何模型的训练曲线和验证结果。TensorBoard作为web服务运行,它可以非常方便地将存储在无头节点(headless node)上的结果可视化。

我在用PyTorch之前一直在用这种功能并尝试找到能替代这种功能的选择。值得庆幸的是,目前至少有两个开源项目支持这种功能。一个是istensorboard_logger,另一个是crayon。istensorboard_logger库甚至比TensorFlow中的TensorBoard摘要数据更容易使用,不过需要安装TensorBoard来使用。crayon完全能取代TensorBoard,不过需要更多的设置(支持docker是先决条件)。

  • 关于Keras

Keras是一个更高级的API,可配置后端,支持TensorFlow、Theano和CNTK,也许在不久的将来也会支持PyTorch。Keras就像TensorFlow里的tf.contrib库一样。

我上面没有讨论Keras,不过它使用起来特别容易。它是调试最常用的几种深度神经网络架构最快的方法之一。不过它的灵活性不如PyTorch或core TensorFlow。

  • 关于TensorFlow Fold

谷歌在2017年2月发布了TensorFlow Fold。该库构建在TensorFlow之上,支持更多动态图构建,主要优点是动态批处理功能——可以对不同规模的输入数据(如解析树上的递归网络)自动进行批量计算。在可编程性上,它的语法不如PyTorch直接,不过在某些情况下,批量处理带来的性能改进可以让我们忽略语法上的不足。

via:kdnuggets

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2017-09-03

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏新智元

【干货】TensorFlow 高阶技巧:常见陷阱、调试和性能优化

【新智元导读】文本将介绍一些 TensorFlow 的操作技巧,旨在提高你的模型性能和训练水平。文章将从预处理和输入管道开始,覆盖图、调试和性能优化的问题。 预...

38812
来自专栏程序你好

微软发布开源跨平台机器学习框架ML.NET 0.2版本

上个月在Build 2018年微软发布了ML.NET 0.1,一个跨平台的开源机器学习框架。今天又发布了ML.NET 0.2。这个版本侧重于添加新的ML任务,比...

522
来自专栏AI科技评论

开发 | 谷歌发布TensorFlow 1.4版本:支持分布式训练,迎来三大新变化

e Developers blog正式撰文发布TensorFlow 1.4版本,此次的更新迎来三个重大变化:Keras位于TensorFlow core中,Da...

2703
来自专栏AI研习社

谷歌与苹果达成合作:TensorFlow Lite 将支持 Core ML | 快讯

11 月 14 日,谷歌正式发布 TensorFlow Lite 开发者预览版,这是针对移动和嵌入式设备的轻量级解决方案。在介绍中,谷歌表示,TensorFlo...

2705
来自专栏CVer

小米开源自研移动端深度学习框架MACE

Mobile AI Compute Engine (MACE) 是一个专为移动端异构计算平台优化的神经网络计算框架。MACE 支持 TensorFlow 和 C...

1164
来自专栏PaddlePaddle

【AI核心技术】课程十一:VGG网络更深的架构尝试

UAI与PaddlePaddle联合推出的【AI核心技术掌握】系列课程持续更新中!

505
来自专栏PPV课数据科学社区

PyTorch和TensorFlow哪家强:九项对比读懂各自长项短板

近日,斯坦福大学计算机科学系博士生 Awni Hannun 也发表了一篇文章,谈了自己对 PyTorch 和 TensorFlow 这两大明星框架的心得体验,并...

3236
来自专栏CDA数据分析师

谷歌教你学 AI-第四讲部署预测模型

翻译/校对: Mika 本文为 CDA 数据分析师原创作品,转载需授权 Google Cloud发布了名为"AI Adventures"的系列视频,用简单易懂的...

2036
来自专栏AI研习社

Google正式发布TensorFlow Lite预览版,针对移动/嵌入设备的轻量级解决方案

日前,谷歌正式发布 TensorFlow Lite 开发者预览版,这是针对移动和嵌入式设备的轻量级解决方案。TensorFlow Lite 是一种全新的设计,具...

3094
来自专栏ATYUN订阅号

TF新工具AutoGraph:将Python转换为TensorFlow图

我们在这里向你介绍一个名为“AutoGraph”的TensorFlow新功能。AutoGraph将Python代码(包括控制流print()和其他Python原...

944

扫描关注云+社区