前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >TensorFlow实现梯度下降

TensorFlow实现梯度下降

作者头像
荣仔_最靓的仔
发布2021-02-02 17:01:02
7930
发布2021-02-02 17:01:02
举报
文章被收录于专栏:一些有趣的Python案例

目录

一、梯度下降概念

二、要点

三、梯度下降法求解线性回归步骤

四、使用Numpy实现一元线性回归

五、使用TensorFlow实现一元线性回归

六、总结


一、梯度下降概念

梯度下降法是一个一阶最优化算法,通常也称为最速下降法。要使用梯度下降法找到一个函数的局部极小值,必须响函数上当前对于梯度(或者近似梯度)的反方向的规定步长居里点进行迭代搜索。所以梯度下降法可以帮助我们求解某个函数的极小值或者最小值。对于n为问题就是最优解,梯度下降法是最常用的方法之一。

二、要点

借助 TensorFlow 的可训练变量和自动求导机制使用梯度下降法求解线性回归问题。

三、梯度下降法求解线性回归步骤

第一步:加载数据(导入库、加载数据样本)

第二步:设置超参数(学习率、循环次数、显示结果间隔)

第三步:初始化模型(设置模型参数初值)

第四步:训练模型

四、使用Numpy实现一元线性回归

第一步:加载数据

代码语言:javascript
复制
# 导入库
import numpy as np
import matplotlib.pyplot as plt
# 加载数据样本   
x = np.array([137.97, 104.50, 100.00, 124.32, 79.20, 99.00, 124.00, 114.00,
             106.69, 138.05, 53.75, 46.91, 68.00, 63.02, 81.26, 86.21])
y = np.array([145.00, 110.00, 93.00, 116.00, 65.32, 104.00, 118.00, 91.00,
              62.00, 133.00, 51.00, 45.00, 78.50, 69.65, 75.69, 95.30])

第二步:设置超参数

代码语言:javascript
复制
learn_rate = 0.00001     # 学习率
iter = 100               # 循环次数
display_step = 10        # 显示结果间隔

第三步:初始化模型(设置模型参数初值)

代码语言:javascript
复制
np.random.seed(612)
w = np.random.randn()
b = np.random.randn()

第四步:训练模型

代码语言:javascript
复制
for i in range(0, iter+1):
    # 计算梯度
    dL_dw = np.mean(x*(w*x+b-y))
    dL_db = np.mean(w*x+b-y)
    # 使用梯度结果更新模型参数
    w = w-learn_rate*dL_dw
    b = b-learn_rate*dL_db
    # 使用更新后的参数计算估计值和均方误差
    pred = w*x+b
    Loss = 0.5*np.mean(np.square(y-pred))
    mse.append(Loss)

五、使用TensorFlow实现一元线性回归

第一步:加载数据

代码语言:javascript
复制
# 导入库
import numpy as np
import tensorflow as tf
print("TensorFlow version:", tf.__version__)
# 加载数据样本
x = np.array([137.97, 104.50, 100.00, 124.32, 79.20, 99.00, 124.00, 114.00,
             106.69, 138.05, 53.75, 46.91, 68.00, 63.02, 81.26, 86.21])
y = np.array([145.00, 110.00, 93.00, 116.00, 65.32, 104.00, 118.00, 91.00,
              62.00, 133.00, 51.00, 45.00, 78.50, 69.65, 75.69, 95.30])

第二步:设置超参数

代码语言:javascript
复制
learn_rate = 0.00001     # 学习率(调整步长)
iter = 100               # 循环次数
display_step = 10        # 显示结果间隔

第三步:设置模型参数初始值

代码语言:javascript
复制
np.random.seed(612)
w = tf.Variable(np.random.randn())
b = tf.Variable(np.random.randn())

第四步:训练模型

代码语言:javascript
复制
for i in range(0, iter+1):
    # 把线性模型和损失函数的表达式写在梯度带的with语句中
    with tf.GandientTape() as tape:
           pred = w*x+b
           Loss = 0.5*tf.reduce_mean(tf.square(y-pred))
    mse.append(Loss)
    # 把手工计算梯度的代码改为使用梯度带gradient方法,自动获取梯度
    dL_dw,dL_db = tape.gradient(Loss,[w,b])
    
    # 使用迭代公式更新模型参数,给Variable对象赋值需要使用assign方法,这里使用assign_sub方法实现减法运算
    w.assign_sub(learn_rate * dL_dw)
    b.assign_sub(learn_rate * dL_db)

值得注意的是:numpy默认浮点数64位 ;TensorFlow默认浮点数32位。

如指定64位,则得到和numpy完全相同的结果

六、总结

使用TensorFlow实现梯度下降法,梯度带会自动计算损失函数的梯度而不用我们写代码实现偏导数的实现过程。


欢迎留言,一起学习交流~

感谢阅读

END

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020/12/10 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、梯度下降概念
  • 二、要点
  • 三、梯度下降法求解线性回归步骤
  • 四、使用Numpy实现一元线性回归
  • 五、使用TensorFlow实现一元线性回归
  • 六、总结
  • 欢迎留言,一起学习交流~
    • END
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档