首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >一文初探Tensorflow高级API使用(初学者篇)

一文初探Tensorflow高级API使用(初学者篇)

作者头像
用户1332428
发布2018-03-12 10:39:44
9730
发布2018-03-12 10:39:44
举报
文章被收录于专栏:人工智能LeadAI人工智能LeadAI

今天我们要向Tensorflow高级API的学习门槛迈进一步。别听到高级API就觉得是难度高的意思,其实高级API恰恰是为了降低大家的编码难度而设置的。Tensorflow更高层的API使得配置,训练,评估多种多样的机器学习模型更简单方便了。

本文将使用高层API:tf.contrib.learn 来构建一个分类神经网络,将它放在“鸢尾花数据集”上进行训练,并且估计模型,使得模型能根据特征(萼片和花瓣几何形状)预测出花的种类。

01 加载鸢尾花数据到TensorFlow上

首先介绍一下我们今天要使用的数据集:

鸢尾花数据集:Iris data set 由150个样本组成。其中,总共有3个类别:山鸢尾(Iris setosa),虹膜锦葵(Iris virginica),变色鸢尾 (Iris versicolor) ,每个类别50个样本。

下图,从左到右分别是 Iris setosa , Iris versicolor, and Iris virginica三类花的图片:

数据的每一行(也就是每个样本)包含了样本的特征与类别标签。

特征有:萼片的长度,萼片的宽度,花瓣的长度,花瓣的宽度。

类别标签用整型数字表示:0表示萼片,1表示Iris versicolor,2表示Iris virginica

数据格式如下:

在机器学习的建模中,我们一般将数据集拆分成训练集与测试集,训练集用来训练模型,测试集用来测试模型的泛化能力。所以此处,也将150个样本的数据集随机地拆分成两个部分:

(1)训练集包含120个样本(放在iris_training.csv文件中) (2)测试集包含30个样本(放在iris_test.csv文件中)

在开始写程序之前,要先下载好这两个数据集哦~

现在我们已经了解了数据集大概的样子了,于是开始上代码喽~

首先,还是先导入要用的库

from __future__ import absolute_import
from __future__ import division
from __future__ import print_function
import tensorflow as tf
import numpy as np

接着,把下载好的训练集与测试集根据它们的路径加载的dataset中,使用的是learn.datasets.base中的load_csv_with_header()这个方法。这个方法需要传入3个参数:

(1)filename:文件路径/文件名 (2)target_dtype:标签类别的数据类型 (3)features_dtype:特征的数据类型

# 定义数据集的路径

IRIS_TRAINING = "iris_training.csv"

IRIS_TEST = "iris_test.csv"

# 加载数据集

# # 加载训练集

training_set = tf.contrib.learn.datasets.base.load_csv_with_header(

filename=IRIS_TRAINING, target_dtype=np.int, features_dtype=np.float32)

# # 加载测试集 test_set = tf.contrib.learn.datasets.base.load_csv_with_header( filename=IRIS_TEST, target_dtype=np.int, features_dtype=np.float32)

注意,加载建立后的Dataset是命名元组,可以使用training_set.data调用训练数据集的特征数据,使用training_set.target调用训练数据集的类别标签数据。对test_set的测试数据集也是同理。

02 构建深度神经网络分类模型

tf.contrib.learn提供了多种多样的预定义模型,叫做Estimators(估计器),这些Estimator在你拟运行训练与评估模型的操作的时候可以实现开箱即用,也就是说,当你要使用某个模型的时候,不再需要去写他的内部逻辑,直接调用这个模型的接口,用一句代码搞定即可。

于是,这里我们就来使用tf.contrib.learn配置一个深层神经网络的分类模型,只需要了了几行代码~

# Specify that all features have real-value datafeature_columns = [tf.contrib.layers.real_valued_column("", dimension=4)]# Build 3 layer DNN with 10, 20, 10 units respectively.classifier = tf.contrib.learn.DNNClassifier(feature_columns=feature_columns, hidden_units=[10, 20, 10], n_classes=3, model_dir="/tmp/iris_model")

以上代码首先定义了模型的特征列,并且指定了特征数据的数据类型。在上一节中我们看到所有的特征都是连续型变量,所以tf.contrib.layers.real_valued_column这个函数被用来构建特征列。另外,我们的数据集中有4个特征,故传入参数dimension=4.

接着,以上代码使用了tf.contrib.learn.DNNClassifier这个函数来直接构建DNN模型。(记得前面两个笔记,无论是讲简单的分类模型softmax regression还是稍微复杂的卷积神经网络,都是自己一层一层地去写模型的逻辑结构,相当繁琐,看!高级的API已经为我们封装好了这些模型,我们只需要直接调用方法就行)

DNNClassifier这个方法需要传入4个参数:

(1)feature_columns=feature_columns,将刚刚预先定义好的特征列传给参数feature_columns。

(2)hidden_units=[10, 20, 10],设置隐藏层中的神经元个数,这里表示共有3个隐藏层,依次的神经元个数为10,20,10。

(3)n_classes=3,设置目标分类的个数,这个是3类,分成3种鸢尾花。

(4)model_dir=/tmp/iris_model,这是保存模型训练过程中的checkpoint检查点的数据的路径

03

模型拟合真实数据进行训练

上面一步建立了一个模型,现在你可以将鸢尾花的训练数据集利用fit()这个方法来拟合进模型。主要是通过传入参数的方式,将训练集中的特征传给x,将训练集中的标签传给y,并且定义了训练的次数(比如这里是2000次):

# Fit modelclassifier.fit(x=training_set.data, y=training_set.target, steps=2000)

注意的是,模型的状态会在训练中被缓存在分类器中classifier,所以你可以按照自己的喜好来分开迭代,例如,上面代码等同于下面两句代码:

classifier.fit(x=training_set.data, y=training_set.target, steps=1000) classifier.fit(x=training_set.data, y=training_set.target, steps=1000)

04 评估模型的精度

第1步导入了数据,第2步构建了模型,第3步在训练集上进行了训练学,现在第4步,我们要去评估训练好的模型了。

评估模型的时候使用的是测试集,与.fit()方法相似,评估模型调用.evaluate()方法,并且将测试集的特征传入给x,测试集的标签传入给y,并且指定计算的是accuracy。

accuracy_score = classifier.evaluate(x=test_set.data, y=test_set.target)["accuracy"]print('Accuracy: {0:f}'.format(accuracy_score))

运行以上的所有代码,会打印出最后的精度:

Accuracy: 0.966667

每次训练的accuracy可能会有点不相同,但都应该是在90%之上的哈~

05 预测新的数据

模型建好了,也通过了评估,现在终于到了用武之时呢~我们要用模型与预测新的数据。

比如,现在新来了两条未知的数据,至知道这两朵花的4个特征,却不知道它们的种类,于是调用.predict()方法进行预测:

# 新的两个样本new_samples = np.array( [[6.4, 3.2, 4.5, 1.5], [5.8, 3.1, 5.0, 1.7]], dtype=float)# 预测 y = list(classifier.predict(new_samples, as_iterable=True))# 打印print('Predictions: {}'.format(str(y)))

.predict()返回的是一个数组,预测的结果打印出来应是如下,第一个样本为1类,第二哥赝本为二类。

Prediction: [1 2]

将以上代码所有整合在一起如下:

from __future__ import absolute_import
from __future__ import division
from __future__ import print_function
import tensorflow as tf
import numpy as np
# Data sets
IRIS_TRAINING = "iris_training.csv"
IRIS_TEST = "iris_test.csv"
# Load datasets.training_set = tf.contrib.learn.datasets.base.load_csv_with_header(     filename=IRIS_TRAINING,     target_dtype=np.int,     features_dtype=np.float32) test_set = tf.contrib.learn.datasets.base.load_csv_with_header(     filename=IRIS_TEST,     target_dtype=np.int,     features_dtype=np.float32)
# Specify that all features have real-value data
feature_columns = [tf.contrib.layers.real_valued_column("", dimension=4)]# Build 3 layer DNN with 10, 20, 10 units respectively.
classifier = tf.contrib.learn.DNNClassifier(feature_columns=feature_columns,                                             hidden_units=[10, 20, 10],                                             n_classes=3,                                             model_dir="/tmp/iris_model")
# Fit model.classifier.fit(x=training_set.data,                y=training_set.target,                steps=2000)
# Evaluate accuracy.accuracy_score = classifier.evaluate(x=test_set.data,                                      y=test_set.target)["accuracy"] print('Accuracy: {0:f}'.format(accuracy_score))
# Classify two new flower samples.new_samples = np.array(     [[6.4, 3.2, 4.5, 1.5], [5.8, 3.1, 5.0, 1.7]], dtype=float) y = list(classifier.predict(new_samples, as_iterable=True)) print('Predictions: {}'.format(str(y)))

tf.contrib.learn包括了各种类型的深度学习和机器学习的算法。它是从Tensorflow官方Scikit Flow直接迁移过来的,其使用的风格与Scikit-learn相似(用python写机器学习的小伙伴应该很熟悉)。

从Tensorflowv0.9版本时候,tf.learn已经能够无缝与其他contrib模型结合起来使用啦~

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-01-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 人工智能LeadAI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档