前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python实现简单的梯度下降计算

Python实现简单的梯度下降计算

作者头像
用户6719124
发布2019-11-18 00:30:18
1.5K0
发布2019-11-18 00:30:18
举报

梯度下降是深度学习的精髓,以至于可以说深度学习又可称为gradient learning。

这里以一个简单的回归问题为例。

首先我们引用python中的matplotlib, math和numpy包构建一个函数图像:

代码语言:javascript
复制
import matplotlib.pyplot as plt
import math
import numpy as np

x = []
y = []
for i in np.linspace(0, 7):
    x.append(i)
    y.append(i**2 * math.sin(i))
plt.plot(x, y)
plt.show()

则做出的函数(y = x**2 * sin(x))图像为:

在初高中时,若想求得极值,则需要先求出该函数的导数。

即另y'= 0,再求得极值。而梯度下降法则是累计将x减去每次得到的导数值,而最优的x*值即为差值最小的值的点。这里的每次迭代即为梯度下降。同时为计算的波动不太大又不太小,这里再额外引入一个乘率(learning rate),这个learning rate也可以理解为学习速度。

因此这里可以引入一个loss(损失)的概念,将方程转化为loss = (y - x**2 * sin(x))**2,这时再对loss进行求导即可使方程转化为求计算梯度求极值的问题。

但在实际计算过程中,无法确切知道具体的函数参数。因此我们假设存在loss的形式如下:

式中WX+b为预测的y值,后面的y为y的真实值。

对预测y值进行迭代计算,总计算值再做平均计算即可算出总误差值。

定义计算误差值的函数。

代码语言:javascript
复制
# w, b 为当前的参数值, sets为(x, y)的点
def average_error(w, b, sets):
    # 另总error值初始值为0
    total_error = 0
    # 对每个取得的set点进行迭代
    for i in range(0, len(sets)):
        # 得出所有的(x, y)点
        x = sets[i, 0]
        y = sets[i, 1]
        total_error += (y - (w*x + b)) ** 2
        # 将所有计算出的误差值的平方和累加起来
    return total_error / float(len(sets))
         # 返回累加出的平方和的均值

随后需要对各函数的梯度值进行计算,

代码为:

代码语言:javascript
复制
def gradient_compute(w_current, b_current, sets, learningrate):
    # w_current、b_current为当前值,sets为(x, y)点, learningrate为学习率
    w_gradient = 0
    b_gradient = 0
    # 两者初始梯度值为0
    n = float(len(sets))
    for i in range(0, len(sets)):
        x = sets[i, 0]
        y = sets[i, 1]

        b_gradient += -(2/n) * (y - ((w_current * x) + b_current))
        w_gradient += -(2/n) * x * (y - ((w_current * x) + b_current))
        # 依据梯度计算公式,列出上两式子
        # 直接对所有点的累加值做平均计算即为(2/n)
    new_w = w_current - learningrate * w_gradient
    new_b = b_current - learningrate * b_gradient
    return [new_b, new_w]
    # 返回新的w和b

由此可以开始迭代所有的梯度信息,

代码语言:javascript
复制
def run_gradient(sets, b_start, w_start, learningrate, number):
    # number=迭代次数
    b = b_start
    w = w_start
    for i in range(number):
        w, b = gradient_compute(w, b, np.array(sets), learningrate)
        return [w, b]
        # 得到循环100次后,w和b的最优解

最后设定好sets值、learningrate值、迭代次数、初始w,b值即可开始进行迭代计算。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-09-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 python pytorch AI机器学习实践 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档