【TensorFlow】DNNRegressor 的简单使用

tf.contrib.learn.DNNRegressor 是 TensoFlow 中实现的一个神经网络回归器。一般神经网络用于分类问题的比较多,但是同样可以用于回归问题和无监督学习问题。

此文的代码和所生成的 TensorBoard 文件可以从 这里 下载。

tf.contrib.learn

tf.contrib.learn 是 TensorFlow 提供的一个机器学习高级 API 模块,让用户可以更方便的配置、训练和评估各种各样的机器学习模型,里面内置了很多模型可以直接调用,使用类似 scikit-learn 的 API 。大致有以下几种模型,具体可参考 Learn (contrib)

DNNRegressor

下面以波士顿房价预测的例子来说明一下 DNNRegressor 的使用。

波士顿房价数据集大小为 506*14,也就是说有 506 个样本,每个样本有 13 个特征,另外一个是要预测的房价。数据集我们直接使用 scikit-learn 的 load_boston() 函数直接载入,这里引用下UCI 的解释:

1. CRIM per capita crime rate by town 2. ZN proportion of residential land zoned for lots over 25,000 sq.ft. 3. INDUS proportion of non-retail business acres per town 4. CHAS Charles River dummy variable (= 1 if tract bounds river; 0 otherwise) 5. NOX nitric oxides concentration (parts per 10 million) 6. RM average number of rooms per dwelling 7. AGE proportion of owner-occupied units built prior to 1940 8. DIS weighted distances to five Boston employment centres 9. RAD index of accessibility to radial highways 0. TAX full-value property-tax rate per $10,000 1. PTRATIO pupil-teacher ratio by town 2. B 1000(Bk - 0.63)^2 where Bk is the proportion of blacks by town 3. LSTAT % lower status of the population 4. MEDV Median value of owner-occupied homes in $1000’s

开始前先说明一下,DNNRegressor 的使用逻辑和其他库的不太一样,如果你比较熟悉 TensorFlow 的话就比较好理解:我们是先定义一些计算图,这时候并不真正的传入数据,然后在训练的时候去执行这个计算图,也就是说这时候才开始将真正的数据穿进去。相当于是组装一条产品的生产线,刚开始我们只是把这台生产线组装好,并不开始真正的生产产品(保有数据),到最后阶段(训练阶段)才会真正的把原材料「喂给」生产线上来生产产品。

下面的程序大致上是这么几个步骤:

  1. 载入数据
  2. 定义 FeatureColumn
  3. 定义 regressor
  4. 训练
  5. 评估
  6. 预测

载入数据

如上所说,这里我们使用 scikit-learn 的 load_boston() 函数来载入数据。

boston = load_boston()
boston_df = pd.DataFrame(np.c_[boston.data, boston.target], columns=np.append(boston.feature_names, 'MEDV'))
LABEL_COLUMN = ['MEDV']
FEATURE_COLUMNS = [f for f in boston_df if not f in LABEL_COLUMN]

boston 是一个 numpy 多维数组,为了后面方便转换成 pandas 的 DataFrame 类型,MEDV 就是我们要预测的变量。

然后我们使用 train_test_split() 来按照 7:3 的比例来分割数据集。

X_train, X_test, y_train, y_test = train_test_split(boston_df[FEATURE_COLUMNS], boston_df[LABEL_COLUMN], test_size=0.3)
print('训练集:{}\n测试集:{}'.format(X_train.shape, X_test.shape))
训练集:(354, 13)
测试集:(152, 13)

在进行下一步之前,我们先来简单的看下这个数据集的分布情况。

各个变量的 violin 图,从这些图我们可以看出每个变量的分布情况:

14 个变量之间的相关情况:

右键在新标签页打开可以查看大图

从这个图我们可以看出 RM (住宅平均房间数)与最终的售价是最正相关的,而 LSTAT (人口中地位低下者的比例)是最负相关的。

定义 FeatureColumn

TensorFlow 使用 FeatureColumn 来表示数据集中的一个的特征,我们需要根据特征类型(连续或者分类)把原来的特征都转换成 FeatureColumn。此处数据已经都是连续数值了,所以直接使用 tf.contrib.layers.real_valued_column() 来转换成 FeatureColumn,如果是分类变量,则需要使用 tf.contrib.layers.sparse_column_with_keys() 或者 tf.contrib.layers.sparse_column_with_hash_bucket()

feature_cols = [tf.contrib.layers.real_valued_column(k) for k in FEATURE_COLUMNS]

定义 regressor

这里就到定义模型的时候了,也就是 DNNRegressor,将我们前面定义的 FeatureColumn 传进去,再设置下隐藏层的层数和神经元数量,指定模型保存目录(训练完成后可以使用 tensorboard 可视化网络结构和训练过程)。

regressor = tf.contrib.learn.DNNRegressor(feature_columns=feature_cols, 
                                          hidden_units=[64, 128], 
                                          model_dir='./models/dnnregressor')

定义 input_fn

定义完 regressor 之后就是模型的训练了,但是在训练开始前,我们需要定义一下传给模型训练的数据的格式,这就是 input_fn 的作用。input_fn 必须返回 feature_colslabels

  • feature_cols 是一个字典, key 是特征的名字,value 是对应的数据(Tensor 格式)
  • labels 是一个 Tensor,就是你要预测的变量
def input_fn(df, label):
    feature_cols = {k: tf.constant(df[k].values) for k in FEATURE_COLUMNS}
    label = tf.constant(label.values)
    return feature_cols, label


def train_input_fn():
    '''训练阶段使用的 input_fn'''
    return input_fn(X_train, y_train)


def test_input_fn():
    '''测试阶段使用的 input_fn'''
    return input_fn(X_test, y_test)

训练

定义完 input_fn 我们就可以开始真正的训练过程了。

regressor.fit(input_fn=train_input_fn, steps=5000)

训练阶段和测试阶段所用的数据是不一样的,所以在上面我又分别为训练和测试写了一个 input_fn。当然除了这种方式还有其他方式,你可以只写一个 input_fn,然后在 fit 的时候使用类似 input_fn=lambda: input_fn(training_set) 来制定传入的数据集。注意你不能直接使用 input_fn=input_fn(training_set) ,因为 input_fn 参数的值是一个函数

测试

ev = regressor.evaluate(input_fn=test_input_fn, steps=1)
print('ev: {}'.format(ev))

测试结果是一个字典,包括最终损失和迭代步数:

ev: {'loss': 32.229404, 'global_step': 5000}

我们从 TensorBoard 可以看到最终的训练损失和测试损失:

右键在新标签页打开可以查看大图

整个计算图是这样的:

右键在新标签页打开可以查看大图

预测

使用训练好的模型对测试数据进行预测,只输出前 10 项预测结果:

predict = regressor.predict(input_fn=test_input_fn, as_iterable=False)
print(predict[:10])
[ 25.04570198  31.65488815  11.31779861  14.20497131  31.12402344
  37.50260925  25.20910835  24.17683983  20.83440208  35.22043991]

Trouble Shooting

InternalError (see above for traceback): Blas SGEMM launch failed

如果你的程序报类似这样的错,说明你在使用 GPU 计算(默认行为)且你的 GPU 可用显存不足,TensorFlow 总是试图为自己分配全部显存,例如你的显存是 2GB,那么他就会试图为自己分配 2GB,但是一般情况下你的显存不会一点都不被其他程序占用的,导致 TensorFlow 分配显存失败。

解决办法是在定义 regressor 的时候使用 config 参数中的 gpu_memory_fraction 来指定分配给 TensorFlow 的显存大小(比例):

# log_device_placement 用于记录并输出使用的设备,可以不用写
config = tf.contrib.learn.RunConfig(gpu_memory_fraction=0.3, log_device_placement=True)
regressor = tf.contrib.learn.DNNRegressor(feature_columns=feature_cols, 
                                          hidden_units=[64, 128], 
                                          model_dir='./models/dnnregressor', 
                                          config=config)

END

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

编辑于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏AI研习社

中科院计算所开源深度文本匹配开源工具 MatchZoo

中国科学院计算技术研究所网络数据科学与技术重点实验室近日发布了深度文本匹配开源项目 MatchZoo。MatchZoo 是一个 Python 环境下基于 Ten...

3106
来自专栏人工智能头条

揭秘Kaggle神器xgboost

1032
来自专栏集智的专栏

使用腾讯云 GPU 学习深度学习系列之二:Tensorflow 简明原理

本文介绍了如何通过简单的 Python 代码,重点实现深度学习框架的计算图模型,以及自动求导过程。

8K3
来自专栏PPV课数据科学社区

【机器学习】确定最佳聚类数目的10种方法

在聚类分析的时候确定最佳聚类数目是一个很重要的问题,比如kmeans函数就要你提供聚类数目这个参数,总不能两眼一抹黑乱填一个吧。之前也被这个问题困扰过,看了很多...

3067
来自专栏奇点大数据

Pytorch神器(3)

上次我们的连载讲到用最简便的方法,也就是pip方法安装Pytorch。大家都成功了吧。

881
来自专栏闪电gogogo的专栏

压缩感知重构算法之压缩采样匹配追踪(CoSaMP)

压缩采样匹配追踪(CompressiveSampling MP)是D. Needell继ROMP之后提出的又一个具有较大影响力的重构算法。CoSaMP也是对OM...

25910
来自专栏PaddlePaddle

转载|PaddleFluid和TensorFlow基本使用概念对比

介绍:Paddle Fluid 是用来让用户像 PyTorch 和 Tensorflow Eager Execution 一样执行程序。在这些系统中,不再有模型...

1272
来自专栏AI科技大本营的专栏

研究 | YOLO一眼就能认出你:看一个神经网络如何全视野实时检测目标

作者 | Joseph Redmon的 & Ali Farhadi 编译|AI100(rgznai100) YOLO全名You only look once(你...

34413
来自专栏YoungGy

无损卡尔曼滤波UKF与多传感器融合

非线性系统状态估计是一大难点。KF(Kalman Filter)只适用于线性系统。EKF(Extended Kalman Filter)利用泰勒展开将非线性系统...

3618
来自专栏一心无二用,本人只专注于基础图像算法的实现与优化。

优化的对比度增强算法用于有雾图像的清晰化处理(算法效果是我目前看到最为稳定的,且对天空具有天然的免疫力,极力推荐有需要的朋友研究)。

在未谈及具体的算法流程前,先贴几幅用该算法处理的效果。 ? ? ? ?   不知道各位对这个算法的效果第一印象如何。       这个算法的原理来自于文章...

2228

扫码关注云+社区