前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习算法Python实现--逻辑回归

机器学习算法Python实现--逻辑回归

作者头像
统计学家
发布2019-04-10 10:01:07
6750
发布2019-04-10 10:01:07
举报

1、代价函数

  • 可以综合起来为:

其中:

  • 为什么不用线性回归的代价函数表示,因为线性回归的代价函数可能是非凸的,对于分类问题,使用梯度下降很难得到最小值,上面的代价函数是凸函数

的图像如下,即y=1时:

可以看出,当

趋于1y=1,与预测值一致,此时付出的代价cost趋于0,若

趋于0y=1,此时的代价cost值非常大,我们最终的目的是最小化代价值

  • 同理

的图像如下(y=0):

  • 2、梯度
  • 同样对代价函数求偏导:

可以看出与线性回归的偏导数一致

  • 推到过程

3、正则化

  • 目的是为了防止过拟合
  • 在代价函数中加上一项
  • 注意j是重1开始的,因为theta(0)为一个常数项,X中最前面一列会加上1列1,所以乘积还是theta(0),feature没有关系,没有必要正则化
  • 正则化后的代价:
代码语言:javascript
复制
# 代价函数
def costFunction(initial_theta,X,y,inital_lambda):
    m = len(y)
    J = 0
    h = sigmoid(np.dot(X,initial_theta))    # 计算h(z)
    theta1 = initial_theta.copy()           # 因为正则化j=1从1开始,不包含0,所以复制一份,前theta(0)值为0 
    theta1[0] = 0   
    temp = np.dot(np.transpose(theta1),theta1)
    J = (-np.dot(np.transpose(y),np.log(h))-np.dot(np.transpose(1-y),np.log(1-h))+temp*inital_lambda/2)/m   # 正则化的代价方程
    return J
  • 正则化后的代价的梯度
代码语言:javascript
复制
# 计算梯度
def gradient(initial_theta,X,y,inital_lambda):
    m = len(y)
    grad = np.zeros((initial_theta.shape[0]))
    h = sigmoid(np.dot(X,initial_theta))# 计算h(z)
    theta1 = initial_theta.copy()
    theta1[0] = 0
    grad = np.dot(np.transpose(X),h-y)/m+inital_lambda/m*theta1 #正则化的梯度
    return grad  

4、S型函数(即

  • 实现代码:
代码语言:javascript
复制
# S型函数    
def sigmoid(z):
    h = np.zeros((len(z),1))    # 初始化,与z的长度一置
    h = 1.0/(1.0+np.exp(-z))
    return h

5、映射为多项式

  • 因为数据的feture可能很少,导致偏差大,所以创造出一些feture结合
  • eg:映射为2次方的形式:
  • 实现代码:
代码语言:javascript
复制
# 映射为多项式 
def mapFeature(X1,X2):
    degree = 3;                     # 映射的最高次方
    out = np.ones((X1.shape[0],1))  # 映射后的结果数组(取代X)
    '''
    这里以degree=2为例,映射为1,x1,x2,x1^2,x1,x2,x2^2
    '''
    for i in np.arange(1,degree+1): 
        for j in range(i+1):
            temp = X1**(i-j)*(X2**j)    #矩阵直接乘相当于matlab中的点乘.*
            out = np.hstack((out, temp.reshape(-1,1)))
    return out

6、使用scipy的优化方法

  • 梯度下降使用scipyoptimize中的fmin_bfgs函数
  • 调用scipy中的优化算法fmin_bfgs(拟牛顿法Broyden-Fletcher-Goldfarb-Shanno
  • costFunction是自己实现的一个求代价的函数,
  • initial_theta表示初始化的值,
  • fprime指定costFunction的梯度
  • args是其余测参数,以元组的形式传入,最后会将最小化costFunction的theta返回
代码语言:javascript
复制
    result = optimize.fmin_bfgs(costFunction, initial_theta, fprime=gradient, args=(X,y,initial_lambda)) 

7、运行结果

  • data1决策边界和准确度

data2决策边界和准确度

8、使用scikit-learn库中的逻辑回归模型实现

  • 导入包
代码语言:javascript
复制
from sklearn.linear_model import LogisticRegression
from sklearn.preprocessing import StandardScaler
from sklearn.cross_validation import train_test_split
import numpy as np
  • 划分训练集和测试集
代码语言:javascript
复制
    # 划分为训练集和测试集
    x_train,x_test,y_train,y_test = train_test_split(X,y,test_size=0.2)
  • 归一化
代码语言:javascript
复制
    # 归一化
    scaler = StandardScaler()
    scaler.fit(x_train)
    x_train = scaler.fit_transform(x_train)
    x_test = scaler.fit_transform(x_test)
  • 逻辑回归
代码语言:javascript
复制
    #逻辑回归
    model = LogisticRegression()
    model.fit(x_train,y_train)
  • 预测
代码语言:javascript
复制
    # 预测
    predict = model.predict(x_test)
    right = sum(predict == y_test)
    predict = np.hstack((predict.reshape(-1,1),y_test.reshape(-1,1)))   # 将预测值和真实值放在一块,好观察
    print predict
    print ('测试集准确率:%f%%'%(right*100.0/predict.shape[0]))          #计算在测试集上的准确度

传送门:https://github.com/lawlite19/MachineLearning_Python/tree/master/LogisticRegression

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-03-19,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习与统计学 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1、代价函数
  • 3、正则化
  • 4、S型函数(即
  • 5、映射为多项式
  • 6、使用scipy的优化方法
  • 7、运行结果
  • 8、使用scikit-learn库中的逻辑回归模型实现
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档