【TensorFlow】TensorFlow的线性回归

前面 有篇博文 讲了讲Ubuntu环境下安装TensorFlow,今天来说一说在TensorFlow中如何进行线性回归。

训练数据

本次使用的训练数据是美国房价数据,做了一些预处理,完整数据可从这里下载,原始数据共有1460行81列,其中我选用了LotArea(房屋面积)和SalePrice(售价)两个变量来分别作为自变量和因变量,处理后样本个数为1140个,也就是说全部训练数据是一个1140*2的矩阵,部分数据如下所示:

训练部分数据

模型

开始训练

使用TensorFlow训练模型大致是这样的步骤:

1. 设置各种超参数,例如学习率,迭代次数等;
2. 定义变量和模型;
3. 初始化变量;
4. 正式开始训练.

废话不多说上完整代码,代码里有注释:

from __future__ import print_function, division
import tensorflow as tf
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn
# 我是在Jupyter Notebook里运行的,所以需要这行
%matplotlib inline

# 读入数据
train = pd.read_csv("Dataset/train.csv")
# 选取房屋面积小于12000的数据
train = train[train['LotArea'] < 12000]
train_X = train['LotArea'].values.reshape(-1, 1)
train_Y = train['SalePrice'].values.reshape(-1, 1)

n_samples = train_X.shape[0]
# 学习率
learning_rate = 2
# 迭代次数
training_epochs = 1000
# 每多少次输出一次迭代结果
display_step = 50

# 这个X和Y和上面的train_X,train_Y是不一样的,这里只是个占位符,
# 训练开始的时候需要“喂”(feed)数据给它
X = tf.placeholder(tf.float32)
Y = tf.placeholder(tf.float32)
# 定义模型参数
W = tf.Variable(np.random.randn(), name="weight", dtype=tf.float32)
b = tf.Variable(np.random.randn(), name="bias", dtype=tf.float32)

# 定义模型
pred = tf.add(tf.mul(W, X), b)
# 定义损失函数
cost = tf.reduce_sum(tf.pow(pred-Y, 2)) / (2 * n_samples)
# 使用Adam算法,至于为什么不使用一般的梯度下降算法,一会说
optimizer = tf.train.AdamOptimizer(learning_rate).minimize(cost)

# 初始化所有变量
init = tf.initialize_all_variables()

# 训练开始
with tf.Session() as sess:
    sess.run(init)

    for epoch in range(training_epochs):
        for (x, y) in zip(train_X, train_Y):
            sess.run(optimizer, feed_dict={X: x, Y: y})

        if (epoch + 1) % display_step == 0:
            c = sess.run(cost, feed_dict={X: train_X, Y: train_Y})
            print("Epoch:", '%04d' % (epoch + 1), "cost=", "{:.3f}".format(c), "W=", sess.run(W), "b=", sess.run(b))

    print("Optimization Finished!")
    training_cost = sess.run(cost, feed_dict={X: train_X, Y: train_Y})
    print("Training cost=", training_cost, "W=", sess.run(W), "b=", sess.run(b), '\n')

    # 画图
    plt.plot(train_X, train_Y, 'ro', label="Original data")
    plt.plot(train_X, sess.run(W) * train_X + sess.run(b), label="Fitted line")
    plt.legend()
    plt.show()

结果如下,

Epoch: 0050 cost= 2283274240.000 W= 20.3469 b= 12945.2
Epoch: 0100 cost= 2196306176.000 W= 19.0349 b= 24402.2
Epoch: 0150 cost= 2128102656.000 W= 17.8766 b= 34479.1
Epoch: 0200 cost= 2074902912.000 W= 16.8604 b= 43292.1
Epoch: 0250 cost= 2033546240.000 W= 15.9735 b= 50965.1
Epoch: 0300 cost= 2001452160.000 W= 15.2026 b= 57622.0
Epoch: 0350 cost= 1976554496.000 W= 14.5348 b= 63380.2
Epoch: 0400 cost= 1957219584.000 W= 13.9577 b= 68350.4
Epoch: 0450 cost= 1942167424.000 W= 13.4598 b= 72634.2
Epoch: 0500 cost= 1930414208.000 W= 13.0309 b= 76322.2
Epoch: 0550 cost= 1921200000.000 W= 12.6619 b= 79494.2
Epoch: 0600 cost= 1913948928.000 W= 12.3445 b= 82220.2
Epoch: 0650 cost= 1908209664.000 W= 12.0717 b= 84562.8
Epoch: 0700 cost= 1903651840.000 W= 11.8377 b= 86572.4
Epoch: 0750 cost= 1900003456.000 W= 11.6364 b= 88299.7
Epoch: 0800 cost= 1897074944.000 W= 11.4638 b= 89781.0
Epoch: 0850 cost= 1894714880.000 W= 11.3161 b= 91048.3
Epoch: 0900 cost= 1892792320.000 W= 11.189 b= 92139.5
Epoch: 0950 cost= 1891217024.000 W= 11.0795 b= 93078.3
Epoch: 1000 cost= 1889932800.000 W= 10.9862 b= 93879.3
Optimization Finished!
Training cost= 1.88993e+09 W= 10.9862 b= 93879.3 

几个问题

  1. 在迭代次数相同的情况下,调节学习率能非常有效的改变损失的下降速度,刚开始学习率是0.001,结果非常的不好,损失比现在的大0.3e09左右,一步一步加大学习率效果显著,即使现在的2也不算大(对于这个问题),但是对于其他问题,要具体情况具体分析,这个学习率或许太过激进;
  2. 至于优化算法为什么不选用更为常见的tf.train.GradientDescentOptimize,刚开始我也是用的这个算法,结果发现 cost, W, b 都是nan,Not a Number,后来当我每一次迭代都输出结果的时候,发现原来这几个值异常迅速的增大,导致超出了表示范围,如下,学习率为 0.001 Epoch: 0001 W= 1541.27 b= -0.811313 Epoch: 0001 W= -121530.0 b= -13.6312 Epoch: 0001 W= 1.33729e+07 b= 1185.87 Epoch: 0001 W= -1.05648e+09 b= -110841.0 Epoch: 0001 W= 9.3181e+10 b= 9.23441e+06 Epoch: 0001 W= -8.717e+12 b= -8.39367e+08 Epoch: 0001 W= 2.77678e+14 b= 4.59572e+10 Epoch: 0001 W= -1.31328e+16 b= -1.76138e+12 Epoch: 0001 W= 1.43194e+18 b= 1.27263e+14 Epoch: 0001 W= -1.7716e+20 b= -1.48503e+16 Epoch: 0001 W= 1.74557e+22 b= 1.64051e+18 Epoch: 0001 W= -1.80845e+24 b= -1.65567e+20 Epoch: 0001 W= 5.76078e+25 b= 9.54297e+21 Epoch: 0001 W= -6.32776e+27 b= -5.585e+23 Epoch: 0001 W= 6.40024e+29 b= 5.93388e+25 Epoch: 0001 W= -3.14474e+31 b= -4.18503e+27 Epoch: 0001 W= 1.4992e+33 b= 2.01299e+29 Epoch: 0001 W= -1.23312e+35 b= -1.26103e+31 Epoch: 0001 W= inf b= inf Epoch: 0001 W= nan b= nan Epoch: 0001 W= nan b= nan 其实就是正负跳的太厉害,而且貌似收敛不了。即使我减小学习率也是杯水车薪,后来试用了这个Adam(Adaptive Moment Estimation)算法,结果没有那个问题了,其实还有其他的算法,我还没有来得及一个一个试,如果想了解各种梯度下降算法,可以参考这篇文章:An overview of gradient descent optimization algorithms
  3. 其实在这种简单的模型上,我个人觉得使用 sklearn 效率更高点(当然 TensorFlow 的定制性比较强,更为底层),我用 sklearn 实现了一次,效果很好,基本就是傻瓜式操作,效果如图,

可以看到两种方法得出的结果还是差不多的(当然TF更为繁琐些)。另外在耗时上,sklearn 也要明显快于 TF, sklearn 几乎是秒出,TF 每次迭代大概需要 11 秒。

END

暂且就是这些,今天折腾了大半天,不容易啊,还是自己太嫩啦:)

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏AI研习社

在 TensorFlow 里构建神经网络来可视化高维数据

在诸如自然语言处理、推荐系统构建等深度学习研究的许多方面,词汇嵌入和高维数据无处不在。谷歌最近开源了 embedding project 项目,此项目是一个交...

903
来自专栏机器之心

资源 | 博士生开源深度学习C++库DLL:快速构建卷积受限玻尔兹曼机

选自baptiste-wicht 机器之心编译 参与:刘晓坤、蒋思源 Baptiste Wicht公布了自己编写的深度学习库DLL1.0,可以通过C++接口使用...

4576
来自专栏一棹烟波

鱼眼图像的经纬度展开,经纬度图转鱼眼

鱼眼图像由视场角接近180度甚至大于180度的镜头拍摄得到,图像周围畸变严重,通过经纬法将鱼眼图像展开是一个不错的方法。鱼眼镜头可以视为一个半球,经纬法按照球面...

2746
来自专栏小樱的经验随笔

ACM训练计划

看完人家的博客,发现任重道远。。。 一位高手对我的建议: 一般要做到50行以内的程序不用调试、100行以内的二分钟内调试成功.acm主要是考算法的,主要时间...

37510
来自专栏CVer

GitHub:目标检测最全论文集锦

目标检测(Object Detection)可以识别一幅图像中的多个物体,定位不同物体的同时(边界框),贴上相应的类别。简单来说,解决了what和where问题...

3462
来自专栏Small Code

【TensorFlow】TensorFlow 的 Logistic Regression

前面提到了使用 TensorFlow 进行线性回归以及学习率、迭代次数和初始化方式对准确率的影响,这次来谈一下如何使用 TensorFlow 进行 Logist...

2327
来自专栏Petrichor的专栏

论文阅读: DenseNet

将原本ResNet的 “串行式一对一的identity mapping” 变成了 “一对多的identity mapping”:

1213
来自专栏zhisheng

学习算法之路

一个搞ACM的需要掌握的算法的sheet。 第一阶段:练经典常用算法,下面的每个算法给我打上十到二十遍,同时自己精简代码,因为太常用,所以要练到写时不用想,10...

3715
来自专栏量化投资与机器学习

【Matlab机器学习】之图像识别

1.Classification in the Presence of Missing Data 2.Handwriting Recognition Using...

26710
来自专栏程序生活

机器学习(二)深度学习实战-使用Kera预测人物年龄问题描述引入所需要模块加载数据集创建模型编译模型优化optimize1 使用卷积神经网络optimize2 增加神经网络的层数输出结果结果

问题描述 我们的任务是从一个人的面部特征来预测他的年龄(用“Young”“Middle ”“Old”表示),我们训练的数据集大约有19906多张照片及其每张图片...

3317

扫码关注云+社区