开发 | 用PyTorch还是TensorFlow?斯坦福大学CS博士生带来全面解答

AI 科技评论按:关于深度学习的框架之争一直没有停止过。PyTorch,TensorFlow,Caffe还是Keras ?近日, 斯坦福大学计算机科学博士生Awni Hannun就发表了一篇文章,对比当前两个主流框架PyTorch和TensorFlow。

AI 科技评论编译如下:

这篇指南是我目前发现的PyTorch和TensorFlow之间的主要差异。写这篇文章的目的是想帮助那些想要开始新项目或者转换深度学习框架的人进行选择。文中重点考虑训练和部署深度学习堆栈组件时框架的可编程性和灵活性。我不会权衡速度、内存使用情况等性能。

结论

PyTorch更适合于在研究中快速进行原型设计、业余爱好者和小型项目,TensorFlow则更适合大规模的调度,尤其当考虑到跨平台和嵌入式调度操作时。

准备时间

优胜者: PyTorch

PyTorch实际上是NumPy的替代,它支持GPU,有着更高级的功能,可以用来构建和训练深度神经网络。

如果你熟悉NumPy、Python和常见的深度学习概念(卷积层、递归层、SGD等),那么学习Python对你来说会很容易。

而TensorFlow则可以看成是一种嵌入Python的编程语言。当你在编写TensorFlow代码时,它们会通过Python编译成一张图,然后由TensorFlow执行引擎运行。我看到过刚使用TensorFlow的人因为这个额外的间接层而苦思冥想。也因为如此,想用TensorFlow还需要学一些额外的概念,比如会话、图、变量作用域和占位符等。要运行基本模型,还需要更多的样板代码。使用TensorFlow的前期准备时间肯定比PyTorch要长。

图创建和调试

优胜者: PyTorch

创建和运行计算图可能是这两个框架最大的不同。在PyTorch中,图架构是动态的,这意味着图是在运行时创建的。而在TensorFlow中,图架构是静态的,这意味着先编译出图然后再运行。

下面是一个简单的例子,在PyTorch中可以使用标准的Python语言编写for循环结构

for _ in range(T):

h = torch.matmul(W, h) + b

你可以在这段代码的执行过程中改变T的值。而在TensorFlow中,需要使用控制流运算(control flow operation)来创建图,例如tf.while_loop。对于更常见的结构,TensorFlow可以执行dynamic_rnn语句,但是创建自定义的动态计算更加困难。

PyTorch中简单的图架构更容易推导,或许更重要的一点是,它更容易调试。调试PyTorch代码如同调试Python代码,可以使用pdb并在任何地方设置断点。而调试TensorFlow代码并不那么容易,你有两个选择,一是请求会话中你想要检查的变量,二是学习和使用TensorFlow调试器(tfdbg)。

覆盖率

优胜者: TensorFlow

因为PyTorch在逐渐发展,我认为两者之间的差距会缩小到零。然而,目前仍有一些TensorFlow支持但PyTorch不支持的功能,如下所示:

沿着维度翻转张量 (np.flip, np.flipud, np.fliplr) 检查张量是空值还是无限值(np.is_nan, np.is_inf) 快速傅里叶变换(np.fft)

此外,TensorFlow的contrib包中有更多比PyTorch更高级的函数和模型。

序列化

优胜者: TensorFlow

在这两种框架下保存和加载模型都很简单。PyTorch有一个特别简单的API,既可以保存模型的所有权重,也可以pickle全部类。

TensorFlow的Saver对象也很容易使用,并为检查点(check-pointing)提供了更多选择。

在序列化中TensorFlow的主要优点是可以将整个图保存为协议缓冲区。这包括参数和运算。此外,该图可以通过其他支持的语言(C++,Java)加载。这对不支持Python的调度栈来说至关重要。理论上,在改变模型源代码之后,你想要运行旧模型时它也能有所帮助。

调度

优胜者: TensorFlow

对于小规模的服务器端调度,两个框架都很容易封装在诸如Flask web服务器中。

不过,TensorFlow支持移动和嵌入式部署。可以确定的说,这比包括PyTorch在内的大多数深度学习框架支持功能的都要多。将TensorFlow部署到Android或iOS上确实需要大量的工作,但至少你不必用Java或C++重写模型的整个推理程序。

此外,TensorFlow Serving支持高性能的服务器端部署。我没有使用过TensorFlow Serving,因此不能很确信地写出它的利弊。由于机器学习服务使用的频率很高,我猜想这是人们坚持使用TensorFlow的充分理由。除了性能之外,TensorFlow Serving的一个明显特点是,支持轻松地换用模型而不会降低服务性能。

文档

平手

我在两种框架的文档中都找到了我需要的东西。Python的 API在两个框架中都有良好的文档记录,并且有足够的例子和教程来学习这两种框架。

一个比较边缘的问题是,PyTorch的 C语言库大多是无文档记录的,不过这只影响到编写定制的C语言扩展程序,而且这种操作是否有助于软件还存疑。

数据加载

优胜者: PyTorch

PyTorch中用于数据加载的API设计得很好。接口在数据集、采样器和数据加载器中有明确规定。数据加载器接收数据集和采样器,根据采样器的调度,在数据集上生成迭代器。加载并行数据就像把num_workers语句传递到数据加载器一样简单。

我在TensorFlow还没发现特别有用的加载数据的工具,例如readers, queues, queue runners等,都不够好。部分原因是因为将想要运行的所有预处理代码添加到TensorFlow图中并不总是直接的,例如计算时频谱(spectrogram)。

而且,API本身更繁琐,更难以学习。

设备管理

优胜者: TensorFlow

TensorFlow管理设备时的无缝性非常好。通常不需要规定任何东西,因为默认已经设好了。例如,如果GPU可用,TensorFlow将默认在GPU上运行。在PyTorch中,即使支持CUDA,都必须明确地将所有东西移到设备上。

TensorFlow设备管理的唯一缺点是,即使你只使用一个GPU它也会默认占用所有GPU的显存。简单的解决方法是用CUDA_VISIBLE_DEVICES语句指定显卡。但有时会忘了设置,所以当GPU实际上处于空闲状态时,会显示内存不足。

在PyTorch中,代码需要更频繁地检查CUDA的可用性和更明确的设备管理,当编写能够同时在CPU和GPU上运行的代码时尤甚。另外,将GPU上的PyTorch Variable转换为NumPy数组有点繁琐。

numpy_var = variable.cpu().data.numpy()

自定义扩展

优胜者: PyTorch

在这两种框架中都可以用C语言、C++或CUDA构建或绑定自定义扩展。但TensorFlow需要更多的样板代码,即使它支持多种类型和设备。在PyTorch中,只需为每个CPU和GPU版本编写一个接口和相应的实现。用这两种框架来编译扩展都很直接,并且不需要下载除了pip安装包之外的任何头文件或源代码。

扩展

  • 关于TensorBoard

TensorBoard是用于展示训练机器学习模型过程的可视化工具。它是TensorFlow自带的最有用的功能之一。只需要通过训练脚本中的一些代码片段,就可以查看任何模型的训练曲线和验证结果。TensorBoard作为web服务运行,它可以非常方便地将存储在无头节点(headless node)上的结果可视化。

我在用PyTorch之前一直在用这种功能并尝试找到能替代这种功能的选择。值得庆幸的是,目前至少有两个开源项目支持这种功能。一个是istensorboard_logger,另一个是crayon。istensorboard_logger库甚至比TensorFlow中的TensorBoard摘要数据更容易使用,不过需要安装TensorBoard来使用。crayon完全能取代TensorBoard,不过需要更多的设置(支持docker是先决条件)。

  • 关于Keras

Keras是一个更高级的API,可配置后端,支持TensorFlow、Theano和CNTK,也许在不久的将来也会支持PyTorch。Keras就像TensorFlow里的tf.contrib库一样。

我上面没有讨论Keras,不过它使用起来特别容易。它是调试最常用的几种深度神经网络架构最快的方法之一。不过它的灵活性不如PyTorch或core TensorFlow。

  • 关于TensorFlow Fold

谷歌在2017年2月发布了TensorFlow Fold。该库构建在TensorFlow之上,支持更多动态图构建,主要优点是动态批处理功能——可以对不同规模的输入数据(如解析树上的递归网络)自动进行批量计算。在可编程性上,它的语法不如PyTorch直接,不过在某些情况下,批量处理带来的性能改进可以让我们忽略语法上的不足。

via:kdnuggets

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2017-09-03

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏大数据文摘

手把手 | 如何在你的iPhone上建立第一个机器学习模型(Apple最新CoreML框架入门)

38650
来自专栏目标检测和深度学习

谷歌GPU资源免费啦

注:本文编译自medium,原英文链接:https://medium.com/@nickbourdakos/train-your-machine-learnin...

42870
来自专栏人工智能头条

DMLC深盟分布式深度机器学习开源平台解析

24060
来自专栏计算机视觉战队

中文车牌识别系统

感谢Liuruoze的EasyPR开源车牌识别系统。 EasyPR是一个中文的开源车牌识别系统,其目标是成为一个简单、灵活、准确的车牌识别引擎。 相比于其他...

1.3K70
来自专栏PPV课数据科学社区

学习R语言,一篇文章让你从懵圈到入门

在实际工作中,每个数据科学项目各不相同,但基本都遵循一定的通用流程。具体如下: 数据科学工作流程 数据导入 数据整理 反复理解数据 数据可视化 数据转换 ...

42540
来自专栏程序你好

在云中部署机器学习模型

对于软件开发,有许多方法、模式和技术用于构建、部署和运行应用程序。DevOps是一种以软件开发和操作的整体观点来描述软件工程文化的艺术方法论。

15220
来自专栏潇涧技术专栏

Head First PageRank

PageRank算法是谷歌曾经独步天下的“倚天剑”,该算法由Larry Page和Sergey Brin在斯坦福大学读研时发明的,论文点击下载: The Pag...

15520
来自专栏大数据

使用Elasticsearch进行智能搜索的机器学习

众所周知,机器学习正在改变许多行业。搜索行业也是如此,公司通过手动调整搜索相关性来压榨潜能。成功的搜索组织希望通过“足够好”的手动调整来构建更智能...

60650
来自专栏新智元

【重磅】TensorFlow 1.0 官方正式发布,重大更新及5大亮点

【新智元导读】昨天凌晨谷歌正式发布了TensorFlow1.0版,改进了库中的机器学习功能,发布了XLA的实验版本,对Python和Java用户开放,提升了de...

39870
来自专栏iOS技术

iOS 地图点标记聚合方案(基于四叉树)

前言 在地图相关应用的开发中,我们常常遇到一个问题,当地图标注点过多的时候,会造成用户体验差、应用卡顿的情况。所以,我们需要一套高效的算法来解决标注的聚合、分散...

34190

扫码关注云+社区

领取腾讯云代金券