0.伏笔:图像读取方式以及效率对比

入职了之后挺忙,已经好久没有做一些科普性的更新了。近期已做了些学术要求不高的工作,所以刚好有时间写写总结。

接下来的一段时间会向着深度学习工具使用的方向,去做一些纯工程性质的分享,重点会介绍MXNet+Gluon的使用,包括一些内幕黑科技,与大家共同进步。

今天来讲一下Python中几种主流读取图像方法,并对他们的读取方式的效率进行对比。

我搜集了几类大家用的比较多的读取图像方法:opencv、scikit-image、scipy、pillow、matplotlib,这些方法的好处就是我们直接调包就好。

在早期,pillow算是Python默认库中比较流行的图像工具,后来pillow原始开发人员逐渐做了废弃的选择(现在维护的是另一班人),然后各类图像处理库,包括原来在c艹称霸的opencv也选择了支持Python,然后就是numpy+scipy+scikit-learn+scikit-image这一逆天的科学计算大礼包的出现。这些基础数据处理的科学计算库的出现,对整个机器学习界乃至现如今0门槛入门深度学习起了不可磨灭的促进作用。

当然了,毕竟是工具,用的顺手才是重要的。好活不一定用好工具,但是好工具一定出好活。

  1. 我们首先来看一下opencv的读取效率:
# 加载时间函数用于计算效率
import time
# opencv
import cv2
N = 1000
tic = time.time()
for i in range(N):
    img = cv2.imread('../data/train/cat.123.jpg')
    img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
print(N/(time.time()-tic), 'images decoded per second with opencv')
imshow(img)

734.9363854754574 images decoded per second with opencv

opencv读取成numpy.array的速度为每秒734张。

2. 我们来看一下scipy的读取方式和它的效率:

# scipy
from scipy.misc import imread
N = 1000
tic = time.time()
for i in range(N):
    img = imread('../data/train/cat.123.jpg')
print(N/(time.time()-tic), 'images decoded per second with scipy.misc')

623.7528820826661 images decoded per second with scipy.misc

采用scipy中的misc函数进行读取效率略微比opencv低一点,速度为每秒623张

3. 如果采用scipy的亲儿子skimage进行读取呢?

# skimage
from skimage import io
N = 1000
tic = time.time()
for i in range(N):
    img = io.imread('../data/train/cat.123.jpg')
print(N/(time.time()-tic), 'images decoded per second with skimage')

613.2599892065876 images decoded per second with skimage 可以看出它的读取速度和scipy基本相当,甚至慢一点,可以确定的一点的是skimage是scipy的亲儿子。速度:每秒613张

4. 和大家重点说一下pillow这个老大,我们还是先做实验:

# pillow
from PIL import Image
N = 1000
tic = time.time()
for i in range(N):
    img = Image.open('../data/train/cat.123.jpg')
    img = np.array(img)
print(N/(time.time()-tic), 'images decoded per second with pillow')

606.2237641859305 images decoded per second with pillow

pillow看起来速度比上面还要慢一点,差别也不大,基本是每秒606张。但实际上,pillow在之星open语句的时候,实际上是通过读取二进制编码的方式进行读取图像,原则上应该是要比上面快很多,那么为什么速度会这么慢呢?我们再做个试验。

# pillow
N = 1000
tic = time.time()
for i in range(N):
    img = Image.open('../data/train/cat.123.jpg')
    #img = np.array(img)
print(N/(time.time()-tic), 'images decoded per second with pillow')

10118.899305672832 images decoded per second with pillow 可以明显发现,读取速度直接提升两个数量级,但是此时的img是Image内部的类文件,需要做相应的转换才是可以的,所以在执行np.array()的时候出现速度下降。

5. 既然已经考虑到了关于读取方式和解码问题的效率问题时,那么我们是不是有更好的图像读取方式呢?于是DMLC(创造MXNet的组织)调用了第一项中opencv中读取编码、解析编码的部分代码,并加入了自动多线程并行读取。

# mx.image
import mxnet as mx
N = 1000
tic = time.time()
for i in range(N):
    img = mx.image.imdecode(open('../data/train/cat.123.jpg','rb').read())
mx.nd.waitall()
print(N/(time.time()-tic), 'images decoded per second with mx.image')
imshow(img.asnumpy())

3104.49234140315 images decoded per second with mx.image

直接爆炸!

这个读出来可是实打实的numpy.array()格式,性能直接提升五倍。在之前做了解释,MXNet是对读取的二进制文件做了opencv的解码,同时加入了自动多线程功能,所以速度真的飞起,真材实料的黑科技啊!

说点远的

实际上可以发现,各深度学习框架都有自己独特的数据读取方式,比如TensorFlow也同样加入了queue读取文件,也通过解码的方式提高效率;再比如各框架为了提高效率都开始采用一定的数据结构格式文件:keras的h5、TensorFlow的tfrecord、MXNet的rec,甚至早起caffe的IMDB格式等。

在我用了多种框架后,我果断选择了MXNet。早起被人吐槽MXNet已经一去不复返,同时DMLC为了降低新手入门难度,更是推出了Gluon的前端。

下回如果有时间,我会聊聊我为什么放弃TensorFlow,以及各大框架使用的优劣感受~会接地气的~

原创声明,本文系作者授权云+社区发表,未经许可,不得转载。

如有侵权,请联系 yunjia_community@tencent.com 删除。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏玉树芝兰

如何对PDF文献做可视化分析?

看了大量文献后,你的硬盘上想必存下不少PDF文件。能否充分利用它们,挖掘出你独特的领域知识地图呢?本文为你提供一种简便易行的办法。

1252
来自专栏大数据文摘

数学烂也要学AI | 带你造一个经济试用版AI终极必杀器

3569
来自专栏专知

【下载】Scikit-learn作者新书《Python机器学习导论》, 教程+代码手把手带你实践机器学习算法

【导读】哥伦比亚大学老师Andreas C. Müller同时也是著名机器学习Python包scikit-learn的主要贡献者 Andreas Muller ...

6615
来自专栏python爬虫日记

有关python下二维码识别用法及识别率对比分析

 最近项目中用到二维码图片识别,在python下二维码识别,目前主要有三个模块:zbar 、zbarlight、zxing。

5244
来自专栏Spark学习技巧

Kylin及数据仓库的技术概念详解

一 cube 1, Table cube数据源的hive表的定义,在build cube之前需要进行同步。 2, Data Model 这描述了一个星型...

3088
来自专栏专知

耶鲁大学发布自然语言处理资源引擎TutorialBank: 让NLP学习不再困难

2506
来自专栏ThoughtWorks

测试矩阵

迷阵 “单元测试,集成测试,端到端测试,安全测试,性能测试,压力测试,契约测试,冒烟测试,验收测试,API测试,UI测试,兼容性测试……” 不知道你是不是像我一...

4429
来自专栏李蔚蓬的专栏

2018.01.21.一周机器学习周记

3.根据提示,在官网下载对应的CUDA版本,下载完成后进行安装(安装之前先卸载本地的旧版本)

1371
来自专栏企鹅号快讯

python-pcl以及相关资料分享

PCL(Point Cloud Library)是在吸收了前人点云相关研究基础上建立起来的大型跨平台开源C++编程库,它实现了大量点云相关的通用算法和高效数据结...

7005
来自专栏华章科技

近期GitHub上最热门的开源项目(附链接)

2 月份 GitHub 上最热门的开源项目又出炉了,又有哪些新的项目挤进热门榜单了呢,一起来看看。

802

扫码关注云+社区

领取腾讯云代金券