TensorFlow实战——图像分类神经网络模型

Learn how to classify images with TensorFlow

使用TensorFlow创建一个简单而强大的图像分类神经网络模型

by Adam Monsen

▌引言

由于深度学习算法和硬件性能的快速发展,研究人员和各大公司在图像识别,语音识别,推荐引擎和机器翻译等领域取得了长足的进步。六年前,在计算机视觉领域首先出现重大突破,这其中以CNN模型在ImageNet数据集上的成功为代表。两年前,Google Brain团队开源TensorFlow,使得我们可以灵巧快速地开发自己的深度学习模型。 目前来看, TensorFlow已经超越许多其他深度学习的工具库。

TensorFlow可以赋予你强大的能力,其具有良好的易用性,使你轻松实现各种复杂功能。

本文由两部分组成,我将解释如何快速创建用于实际图像识别的卷积神经网络。当然该网络还可以对视频中的逐帧图像进行分析,从而扩展基于时间序列的视频分析。

本文提供你最需要的干货,你只需要了解一些命令行和Python的基础知识就行了。 本系列目的在于让你快速动手,并激励你创造属于自己的新项目。限于篇幅,我不会深入探讨TensorFlow的工作原理,但如果你想了解更多,我会提供大量额外的参考资料。本系列中的所有库和工具都是免费的、开源的。

▌它是怎么工作的

我们在本教程中的目标是:通过一个命令给出一个新图像属于哪个类别,我们将按照以下步骤操作:

1.标注(Labeling)是对训练数据进行管理的过程。比如对于花卉,为了根据需要挑选出不同类别的花朵,我们要将雏菊的图像归入“雏菊”类,将玫瑰归入“玫瑰”类等等。当然如果我们不给任何图像贴上“蕨类植物”的标签,分类器将永远不会返回“蕨类植物”。因此这个过程需要每个类型的很多例子,故而是很重要并且耗时的一步。(我们将从已经标记的数据着手,这使我们处理数据的速度更快。)

2.训练(Training)的过程是在我们标注的数据(图像)的基础上,使用某种工具随机抓取其中的一些数据(图像),然后输入到模型中,再使用模型来猜测每种花的类型并且测试猜测的准确性,重复这一过程直到大部分训练数据都被使用。最后一批未使用的图像(测试集)用于检验训练模型的准确性。

3.分类(classification)使用模型分类新图像。例如,输入:IMG207.JPG,输出:雏菊。这是最快,最简单的一步。

▌训练和分类

在本教程中,我们将训练一个图像分类器来识别不同类型的花朵。 深度学习需要大量的训练数据,所以我们需要大量的不同种类的花的图像。值得庆幸的是,已经有人在收集和分类图像方面做得非常出色,所以我们将使用整理好的数据集,采取一个现有的,完全训练的图像分类模型,并重新训练模型的最后一层,来做我们想要的任务。 这种技术被称为迁移学习(transfer learning)。

我们正在重新训练的模型叫做Inception v3,这个模型在2015年12月的论文"Rethinking the Inception Architecture for Computer Vision."中首次提出。

模型训练之前我们不知道如何从雏菊分辨出郁金香,训练模型大约花费了20分钟。 这是深度学习的“学习”部分。

安装

第一步,机器感知:在您选择的平台上安装Docker。在许多TensorFlow教程中,安装Docker都被认为是最合理的选择。 我也喜欢这种安装TensorFlow的方法,因为它不安装一堆依赖项从而保持主机的清洁。

TensorFlow向导

安装Docker后,我们准备启动一个TensorFlow容器进行训练和分类。在您的硬盘驱动器上创建一个有2G空闲空间的工作目录。另外再创建一个名为local的子目录,并记下该目录的完整路径。

docker run -v /path/to/local:/notebooks/local --rm -it --name tensorflow

tensorflow/tensorflow:nightly /bin/bash

下面是该命令的详细解释。

-v / path / to / local:/ notebooks / local将刚刚创建的本地目录装载到容器中合适的位置。 如果使用RHEL,Fedora或其他支持SELinux的系统,请附加Z到刚才的位置从而允许容器访问目录。

--rm告诉Docker在完成后删除容器。

-它附加我们的输入和输出,与容器交互。

--name tensorflow给我们的容器命名tensorflow,而不是sneaky_chowderhead或其他我们随机选择的名字。

tensorflow / tensorflow:nightly,从Docker Hub(一个公共图像库)运行tensorflow / tensorflow的nightly图像,而不使用最新的图像(默认情况下,使用最近构建的/可用的图像)。

我们之所以使用nightly图像而不是最近获得的图像,是因为最近获得的图像包含一个bug导致TensorBoard出问题,其中TensorBoard又是一个数据可视化工具,我们稍后会介绍。

/ bin / bash表示不要运行Bash shell这个默认命令。

训练模型

在容器内,运行下面的命令下载和检查训练数据。

curl -O http://download.tensorflow.org/example_images/flower_photos.tgz

echo 'db6b71d5d3afff90302ee17fd1fefc11d57f243f flower_photos.tgz' sha1sum -c

如果你没有看到flower_photos.tgz:OK的消息,那么你就没有得到正确的文件。 如果上述curl或sha1sum步骤失败,请手动下载并分解本地目录中的训练数据tarball(SHA-1 checksum: db6b71d5d3afff90302ee17fd1fefc11d57f243f)。

现在把训练数据放在原处,然后下载并且检查再训练的脚本。

mv flower_photos.tgz local/

cd local

curl -O https://raw.githubusercontent.com/tensorflow/tensorflow/10cf65b48e1b2f16eaa82

6d2793cb67207a085d0/tensorflow/examples/image_retraining/retrain.py

echo 'a74361beb4f763dc2d0101cfe87b672ceae6e2f5 retrain.py' sha1sum -c

为了确认retrain.py的内容是否正确。你应该看到:retrain.py: OK. 当看到这个命令时,说明成功了。

最后,该进行模型学习了! 运行再训练脚本。

python retrain.py --image_dir flower_photos --output_graph output_graph.pb

--output_labels output_labels.txt

如果遇到下面这个错误,请忽略它:

TypeError: not all arguments converted during string formatting Logged from file

tf_logging.py, line 82.

随着retrain.py的进行,训练图像会自动分成训练、测试和验证数据集。

在输出中,我们希望高的“训练准确性”和“验证准确性”,以及低的“交叉熵”。 有关这些术语的详细解释,请参阅How to retrain Inception's final layer for new categories。在最新硬件上的训练需要大约30分钟。

注意你控制台输出的最后一行:

INFO:tensorflow:Final test accuracy = 89.1% (N=340)

这说明我们已经有了一个模型,有近九成的把握猜出给定图像是五种花型中的哪一种。 由于训练过程中数据输入的随机性,您的准确性可能会有所不同。

分类:

再加上一个脚本,我们可以将新的花朵图像添加到模型中,并输出它的类别。这是图像分类过程。

将以下内容命名为classify.py并保存在主机的local目录中:

importtensorflowastf,sys

image_path = sys.argv[1]

graph_path ='output_graph.pb'

labels_path ='output_labels.txt'

# Read in the image_data

image_data = tf.gfile.FastGFile(image_path,'rb').read()

# Loads label file, strips off carriage return

label_lines = [line.rstrip()forline

intf.gfile.GFile(labels_path)]

# Unpersists graph from file

withtf.gfile.FastGFile(graph_path,'rb')asf:

graph_def = tf.GraphDef()

graph_def.ParseFromString(f.read())

_ = tf.import_graph_def(graph_def,name='')

# Feed the image_data as input to the graph and get first prediction

withtf.Session()assess:

softmax_tensor = sess.graph.get_tensor_by_name('final_result:0')

predictions = sess.run(softmax_tensor,

{'DecodeJpeg/contents:0': image_data})

# Sort to show labels of first prediction in order of confidence

top_k = predictions[].argsort()[-len(predictions[]):][::-1]

fornode_idintop_k:

human_string = label_lines[node_id]

score = predictions[][node_id]

print('%s (score = %.5f)'% (human_string,score))

为了测试你的图像,把图片保存为test.jpg到你的local目录,并运行python classify.py test.jpg。 输出结果如下所示:

sunflowers (score=0.78311)

daisy (score=0.20722)

dandelion (score=0.00605)

tulips (score=0.00289)

roses (score=0.00073)

模型表明有78.311%把握确定图像中的花是向日葵。 较高的分数表示匹配正确的可能性越大。 注意,这里只能匹配上一个标签多标签分类需要使用其他的方法。

更多详细信息,请查看classify.py的更多解释。

分类器脚本中的图像加载代码不能使用了,所以我用了graph_def = tf.GraphDef()代码来加载图像。

我们使用少量的代码创造了一个合适的花朵图像分类器,在笔记本电脑上每秒处理大约五个图像。

在下周发布的这个系列的第二部分中,我们将使用这些信息来训练一个不同的图像分类器,然后用TensorBoard来查看分类器内的内容。 如果你想尝试TensorBoard,那就需要确保docker运行没有停止。

-END-

专 · 知

人工智能领域主题知识资料查看获取:【专知荟萃】人工智能领域26个主题知识资料全集(入门/进阶/论文/综述/视频/专家等)

同时欢迎各位用户进行专知投稿,详情请点击

本文来自企鹅号 - 专知媒体

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏Pytorch实践

Tensorflow常见模型及工程化方法

Tensorflow在深度学习模型研究中起到了很大的促进作用,灵活的框架免去了研究人员、开发者大量的自动求导代码工作。本文总结一下常用的模型代码和工程化需要的代...

2224
来自专栏机器学习算法与理论

调用Dlib库进行人脸关键点标记

       昨天调试了人脸识别(classifier_webcam)这个程序,效果不错,响应速度也挺快。按照http://blog.csdn.net/u011...

4669
来自专栏Python中文社区

基于RNN自动生成古诗

專 欄 ❈ 作者:yonggege,Python中文社区专栏作者 GitHub地址:https://github.com/wzyonggege ❈ 0. ch...

2815
来自专栏Pytorch实践

Tensorflow常见模型及工程化方法

Tensorflow在深度学习模型研究中起到了很大的促进作用,灵活的框架免去了研究人员、开发者大量的自动求导代码工作。本文总结一下常用的模型代码和工程化需要的代...

3816
来自专栏图形学与OpenGL

CG实验2 二维几何变换

请参考教材博客有关WebGL变换文章,具体见:http://blog.csdn.net/wpxu08

1152
来自专栏AI科技大本营的专栏

能在不同的深度学习框架之间转换模型?微软的MMdnn做到了

Microsoft/MMdnn:深度学习框架随心切换 学习深度学习的各位同学都希望自己的模型能在不同的深度学习框架之间随意转换,比如,斯坦福大学CVGL实验室的...

41511
来自专栏TensorFlow从0到N

TensorFlow从0到1 - 5 - TensorFlow轻松搞定线性回归

上一篇 第一个机器学习问题 其实是一个线性回归问题(Linear Regression),呈现了用数据来训练模型的具体方式。本篇从平行世界返回,利用Tenso...

3948
来自专栏ATYUN订阅号

使用Python进行人脸聚类的详细教程

思考下面这个场景:两名劫匪在抢劫波士顿或纽约等繁华城市的银行。银行的安全摄像头工作正常,捕捉到了抢劫行为,但劫匪戴着头套,没办法看到他们的脸。

5822
来自专栏人工智能

使用10几行Python代码,快速建立视觉模型识别图像

视觉 进化的作用,让人类对图像的处理非常高效。 这里,我给你展示一张照片。 ? 如果我这样问你: 你能否分辨出图片中哪个是猫,哪个是狗? 你可能立即会觉得自己遭...

3979
来自专栏专知

【干货】TensorFlow实战——图像分类神经网络模型

Learn how to classify images with TensorFlow 使用TensorFlow创建一个简单而强大的图像分类神经网络模型 by...

4756

扫码关注云+社区

领取腾讯云代金券