前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python梯度下降的多项式回归分析

Python梯度下降的多项式回归分析

作者头像
深度学习与Python
发布2019-06-19 20:17:33
1.7K0
发布2019-06-19 20:17:33
举报

线性回归

线性回归是多项式回归中多项式次数为1的一个特例,通常在回归问题中,我们使用多项式对曲线进行拟合。假设一个单变量线性回归方程如下:

我们也可以将其写成矩阵乘法的形式:

其中我们需要得到最优的参数thera_0和theta_1,所以我们定义一个成本函数为:

即当我们使用优化算法是成本函数值最小时,就说明曲线拟合的效果最优,这是参数即为我们要找的最优值。在降低成本函数值的时候就需要使用我们的梯度下降算法。

梯度下降

一般梯度下降算法分为随机梯度下降和批量梯度下降,这里我们使用的是随机梯度下降。整个优化过程分为三个程序模块,即为hypothesis函数、SGD函数和sgd_sgd_linear_regression函数。

hypothesis()函数:在给定theta(theta_0和theta_1)和输入值x的情况下,计算并输出目标变量的预测值。其代码实现如下:

代码语言:javascript
复制
def hypothesis(theta, X):
    h = np.ones((X.shape[0],1))
    for i in range(0,X.shape[0]):
        x = np.concatenate((np.ones(1), np.array([X[i]])), axis = 0)
        h[i] = float(np.matmul(theta, x))
    h = h.reshape(X.shape[0])
    return h

SGD()函数:根据当前theta_0和theta_1的值以及alpha、迭代次数(num_iters)、上次迭代预测值(h),特征(X)和目标( y)作为输入计算当前迭代优化下的theta值(theta_0和theta_1)。其代码实现如下:

代码语言:javascript
复制
def SGD(theta, alpha, num_iters, h, X, y):
    for i in range(0,num_iters):
        theta[0] = theta[0] - (alpha) * (h - y)
        theta[1] = theta[1] - (alpha) * ((h - y) * X)
        h = theta[1]*X + theta[0] 
    return theta

sgd_linear_regression()函数:该函数为主要函数,它将特征变量X,目标值y,学习率和迭代次数(num_iters)作为输入并输出成本函数几乎达到随机梯度下降后的最小值时的最终优化的θ即theta_0的值和theta_1。其代码实现如下:

代码语言:javascript
复制
def sgd_linear_regression(X, y, alpha, num_iters):
    # initializing the parameter vector...
    theta = np.zeros(2)
    # hypothesis calculation....
    h = hypothesis(theta, X)    
    # returning the optimized parameters by Gradient Descent...
    for i in range(0, X.shape[0]):
        theta = SGD(theta,alpha,num_iters,h[i],X[i],y[i])
    theta = theta.reshape(1, 2)
    return theta

在完成梯度下降的程序后,接下来我们导入数据集对代码进行测试。本次数据及比较简单,我们根据城市人口来回归预测公司利润。数据集可以在文末的github地址上找到。

首先我们加载数据集

代码语言:javascript
复制
data = np.loadtxt('data1.txt', delimiter=',')
X_train = data[:,0] #the feature_set
y_train = data[:,1] #the labels

数据可视化:可以使用散点图可视化数据集:

代码语言:javascript
复制
import matplotlib.pyplot as plt
plt.scatter(X_train, y_train)
plt.xlabel('Population of City in 10,000s')
plt.ylabel('Profit in $10,000s')

可视化结果如下:

下面我们设置学习率learning_rate为0.001、迭代次数为100000次进行训练。训练后我们使用matplotlib对拟合结果可视化,代码如下:

代码语言:javascript
复制
import matplotlib.pyplot as plt 
# getting the predictions...
training_predictions = hypothesis(theta, X_train)
scatter = plt.scatter(X_train, y_train, label="training data")
regression_line = plt.plot(X_train, training_predictions
                           , label="linear regression")
plt.legend()
plt.xlabel('Population of City in 10,000s')
plt.ylabel('Profit in $10,000s')

结果如下:

可见,模型拟合效果并不好,接下来我们就需要对梯度下降进行调参,调参是一个繁琐的过程,需要慢慢的去试,也可以用sklearn的gridsearchCV进行参数寻优。

优化后结果

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-03-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 深度学习与python 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
灰盒安全测试
腾讯知识图谱(Tencent Knowledge Graph,TKG)是一个集成图数据库、图计算引擎和图可视化分析的一站式平台。支持抽取和融合异构数据,支持千亿级节点关系的存储和计算,支持规则匹配、机器学习、图嵌入等图数据挖掘算法,拥有丰富的图数据渲染和展现的可视化方案。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档