手把手教你机器学习算法:逻辑回归(附源码)

作者:寒小阳 && 龙心尘 (感谢投稿)

原文 :http://blog.csdn.net/han_xiaoyang/article/details/49123419

1、总述

逻辑回归是应用非常广泛的一个分类机器学习算法,它将数据拟合到一个logit函数(或者叫做logistic函数)中,从而能够完成对事件发生的概率进行预测。

2、由来

要说逻辑回归,我们得追溯到线性回归,想必大家对线性回归都有一定的了解,即对于多维空间中存在的样本点,我们用特征的线性组合去拟合空间中点的分布和轨迹。如下图所示:

线性回归能对连续值结果进行预测,而现实生活中常见的另外一类问题是,分类问题。最简单的情况是是与否的二分类问题。比如说医生需要判断病人是否生病,银行要判断一个人的信用程度是否达到可以给他发信用卡的程度,邮件收件箱要自动对邮件分类为正常邮件和垃圾邮件等等。

当然,我们最直接的想法是,既然能够用线性回归预测出连续值结果,那根据结果设定一个阈值是不是就可以解决这个问题了呢?事实是,对于很标准的情况,确实可以的,这里我们套用Andrew Ng老师的课件中的例子,下图中X为数据点肿瘤的大小,Y为观测结果是否是恶性肿瘤。通过构建线性回归模型,如hθ(x)所示,构建线性回归模型后,我们设定一个阈值0.5,预测hθ(x)≥0.5的这些点为恶性肿瘤,而hθ(x)<0.5为良性肿瘤。

但很多实际的情况下,我们需要学习的分类数据并没有这么精准,比如说上述例子中突然有一个不按套路出牌的数据点出现,如下图所示:

你看,现在你再设定0.5,这个判定阈值就失效了,而现实生活的分类问题的数据,会比例子中这个更为复杂,而这个时候我们借助于线性回归+阈值的方式,已经很难完成一个鲁棒性很好的分类器了。

在这样的场景下,逻辑回归就诞生了。它的核心思想是,如果线性回归的结果输出是一个连续值,而值的范围是无法限定的,那我们有没有办法把这个结果值映射为可以帮助我们判断的结果呢。而如果输出结果是 (0,1) 的一个概率值,这个问题就很清楚了。我们在数学上找了一圈,还真就找着这样一个简单的函数了,就是很神奇的sigmoid函数(如下):

如果把sigmoid函数图像画出来,是如下的样子:

Sigmoid Logistic Function

从函数图上可以看出,函数y=g(z)在z=0的时候取值为1/2,而随着z逐渐变小,函数值趋于0,z逐渐变大的同时函数值逐渐趋于1,而这正是一个概率的范围。

所以我们定义线性回归的预测函数为Y=WTX,那么逻辑回归的输出Y= g(WTX),其中y=g(z)函数正是上述sigmoid函数(或者简单叫做S形函数)。

3、判定边界

我们现在再来看看,为什么逻辑回归能够解决分类问题。这里引入一个概念,叫做判定边界,可以理解为是用以对不同类别的数据分割的边界,边界的两旁应该是不同类别的数据。

从二维直角坐标系中,举几个例子,大概是如下这个样子:

有时候是这个样子:

甚至可能是这个样子:

上述三幅图中的红绿样本点为不同类别的样本,而我们划出的线,不管是直线、圆或者是曲线,都能比较好地将图中的两类样本分割开来。这就是我们的判定边界,下面我们来看看,逻辑回归是如何根据样本点获得这些判定边界的。

我们依旧借用Andrew Ng教授的课程中部分例子来讲述这个问题。

回到sigmoid函数,我们发现:

当g(z)≥0.5时,z≥0;

对于hθ(x)=g(θTX)≥0.5, 则θTX≥0, 此时意味着预估y=1;

反之,当预测y = 0时,θTX<0;

所以我们认为θTX =0是一个决策边界,当它大于0或小于0时,逻辑回归模型分别预测不同的分类结果。

先看第一个例子hθ(x)=g(θ0+θ1X1+θ2X2),其中θ0 ,θ1 ,θ2分别取-3, 1, 1。则当−3+X1+X2≥0时, y = 1; 则X1+X2=3是一个决策边界,图形表示如下,刚好把图上的两类点区分开来:

例1只是一个线性的决策边界,当hθ(x)更复杂的时候,我们可以得到非线性的决策边界,例如:

这时当x12+x22≥1时,我们判定y=1,这时的决策边界是一个圆形,如下图所示:

所以我们发现,理论上说,只要我们的hθ(x)设计足够合理,准确的说是g(θTx)中θTx足够复杂,我们能在不同的情形下,拟合出不同的判定边界,从而把不同的样本点分隔开来。

4、代价函数与梯度下降

我们通过对判定边界的说明,知道会有合适的参数θ使得θTx=0成为很好的分类判定边界,那么问题就来了,我们如何判定我们的参数θ是否合适,有多合适呢?更进一步,我们有没有办法去求得这样的合适参数θ呢?

这就是我们要提到的代价函数与梯度下降了。

所谓的代价函数Cost Function,其实是一种衡量我们在这组参数下预估的结果和实际结果差距的函数,比如说线性回归的代价函数定义为:

当然我们可以和线性回归类比得到一个代价函数,实际就是上述公式中hθ(x)取为逻辑回归中的g(θTx),但是这会引发代价函数为“非凸”函数的问题,简单一点说就是这个函数有很多个局部最低点,如下图所示:

而我们希望我们的代价函数是一个如下图所示,碗状结构的凸函数,这样我们算法求解到局部最低点,就一定是全局最小值点。

因此,上述的Cost Function对于逻辑回归是不可行的,我们需要其他形式的Cost Function来保证逻辑回归的成本函数是凸函数。

我们跳过大量的数学推导,直接出结论了,我们找到了一个适合逻辑回归的代价函数:

Andrew Ng老师解释了一下这个代价函数的合理性,我们首先看当y=1的情况:

如果我们的类别y = 1, 而判定的hθ(x)=1,则Cost = 0,此时预测的值和真实的值完全相等,代价本该为0;而如果判断hθ(x)→0,代价->∞,这很好地惩罚了最后的结果。

而对于y=0的情况,如下图所示,也同样合理:

下面我们说说梯度下降,梯度下降算法是调整参数θ使得代价函数J(θ)取得最小值的最基本方法之一。从直观上理解,就是我们在碗状结构的凸函数上取一个初始值,然后挪动这个值一步步靠近最低点的过程,如下图所示:

我们先简化一下逻辑回归的代价函数:

从数学上理解,我们为了找到最小值点,就应该朝着下降速度最快的方向(导函数/偏导方向)迈进,每次迈进一小步,再看看此时的下降最快方向是哪,再朝着这个方向迈进,直至最低点。

用迭代公式表示出来的最小化J(θ)的梯度下降算法如下:

5、代码与实现

我们来一起看两个具体数据上做逻辑回归分类的例子,其中一份数据为线性判定边界,另一份为非线性。

示例1。

第一份数据为data1.txt,部分内容如下:

我们先来看看数据在空间的分布,代码如下。

[python] view plaincopy

  1. from numpy import loadtxt, where
  2. from pylab import scatter, show, legend, xlabel, ylabel
  3. #load the dataset
  4. data = loadtxt('/home/HanXiaoyang/data/data1.txt', delimiter=',')
  5. X = data[:, 0:2]
  6. y = data[:, 2]
  7. pos = where(y == 1)
  8. neg = where(y == 0)
  9. scatter(X[pos, 0], X[pos, 1], marker='o', c='b')
  10. scatter(X[neg, 0], X[neg, 1], marker='x', c='r')
  11. xlabel('Feature1/Exam 1 score')
  12. ylabel('Feature2/Exam 2 score')
  13. legend(['Fail', 'Pass'])
  14. show()

得到的结果如下:

下面我们写好计算sigmoid函数、代价函数、和梯度下降的程序:

[python] view plaincopy

  1. def sigmoid(X):
  2. '''''Compute sigmoid function '''
  3. den =1.0+ e **(-1.0* X)
  4. gz =1.0/ den
  5. return gz
  6. def compute_cost(theta,X,y):
  7. '''''computes cost given predicted and actual values'''
  8. m = X.shape[0]#number of training examples
  9. theta = reshape(theta,(len(theta),1))
  10. J =(1./m)*(-transpose(y).dot(log(sigmoid(X.dot(theta))))- transpose(1-y).dot(log(1-sigmoid(X.dot(theta)))))
  11. grad = transpose((1./m)*transpose(sigmoid(X.dot(theta))- y).dot(X))
  12. #optimize.fmin expects a single value, so cannot return grad
  13. return J[0][0]#,grad
  14. def compute_grad(theta, X, y):
  15. '''''compute gradient'''
  16. theta.shape =(1,3)
  17. grad = zeros(3)
  18. h = sigmoid(X.dot(theta.T))
  19. delta = h - y
  20. l = grad.size
  21. for i in range(l):
  22. sumdelta = delta.T.dot(X[:, i])
  23. grad[i]=(1.0/ m)* sumdelta *-1
  24. theta.shape =(3,)
  25. return grad

我们用梯度下降算法得到的结果判定边界是如下的样子:

最后我们使用我们的判定边界对training data做一个预测,然后比对一下准确率:

[python] view plaincopy

  1. def predict(theta, X):
  2. '''''Predict label using learned logistic regression parameters'''
  3. m, n = X.shape
  4. p = zeros(shape=(m,1))
  5. h = sigmoid(X.dot(theta.T))
  6. for it in range(0, h.shape[0]):
  7. if h[it]>0.5:
  8. p[it,0]=1
  9. else:
  10. p[it,0]=0
  11. return p
  12. #Compute accuracy on our training set
  13. p = predict(array(theta), it)
  14. print'Train Accuracy: %f'%((y[where(p == y)].size / float(y.size))*100.0)

计算出来的结果是89.2%

示例2.

第二份数据为data2.txt,部分内容如下:

我们同样把数据的分布画出来,如下:

我们发现在这个例子中,我们没有办法再用一条直线把两类样本点近似分开了,所以我们打算试试多项式的判定边界,那么我们先要对给定的两个feature做一个多项式特征的映射。比如说,我们做了如下的一个映射:

代码如下:

[python] view plaincopy

  1. def map_feature(x1, x2):
  2. '''''
  3. Maps the two input features to polonomial features.
  4. Returns a new feature array with more features of
  5. X1, X2, X1 ** 2, X2 ** 2, X1*X2, X1*X2 ** 2, etc...
  6. '''
  7. x1.shape =(x1.size,1)
  8. x2.shape =(x2.size,1)
  9. degree =6
  10. mapped_fea = ones(shape=(x1[:,0].size,1))
  11. m, n = mapped_fea.shape
  12. for i in range(1, degree +1):
  13. for j in range(i +1):
  14. r =(x1 **(i - j))*(x2 ** j)
  15. mapped_fea = append(out, r, axis=1)
  16. return mapped_fea
  17. mapped_fea = map_feature(X[:,0], X[:,1])

接着做梯度下降:

[python] view plaincopy

  1. def cost_function_reg(theta, X, y, l):
  2. '''''Compute the cost and partial derivatives as grads
  3. '''
  4. h = sigmoid(X.dot(theta))
  5. thetaR = theta[1:,0]
  6. J =(1.0/ m)*((-y.T.dot(log(h)))-((1- y.T).dot(log(1.0- h)))) \
  7. +(l /(2.0* m))*(thetaR.T.dot(thetaR))
  8. delta = h - y
  9. sum_delta = delta.T.dot(X[:,1])
  10. grad1 =(1.0/ m)* sumdelta
  11. XR = X[:,1:X.shape[1]]
  12. sum_delta = delta.T.dot(XR)
  13. grad =(1.0/ m)*(sum_delta + l * thetaR)
  14. out = zeros(shape=(grad.shape[0], grad.shape[1]+1))
  15. out[:,0]= grad1
  16. out[:,1:]= grad
  17. return J.flatten(), out.T.flatten()
  18. m, n = X.shape
  19. y.shape =(m,1)
  20. it = map_feature(X[:,0], X[:,1])
  21. #Initialize theta parameters
  22. initial_theta = zeros(shape=(it.shape[1],1))
  23. #Use regularization and set parameter lambda to 1
  24. l =1
  25. # Compute and display initial cost and gradient for regularized logistic
  26. # regression
  27. cost, grad = cost_function_reg(initial_theta, it, y, l)
  28. def decorated_cost(theta):
  29. return cost_function_reg(theta, it, y, l)
  30. print fmin_bfgs(decorated_cost, initial_theta, maxfun=500)

接着在数据点上画出判定边界:

[python] view plaincopy

  1. #Plot Boundary
  2. u = linspace(-1,1.5,50)
  3. v = linspace(-1,1.5,50)
  4. z = zeros(shape=(len(u), len(v)))
  5. for i in range(len(u)):
  6. for j in range(len(v)):
  7. z[i, j]=(map_feature(array(u[i]), array(v[j])).dot(array(theta)))
  8. z = z.T
  9. contour(u, v, z)
  10. title('lambda = %f'% l)
  11. xlabel('Microchip Test 1')
  12. ylabel('Microchip Test 2')
  13. legend(['y = 1','y = 0','Decision boundary'])
  14. show()
  15. def predict(theta, X):
  16. '''''Predict whether the label
  17. is 0 or 1 using learned logistic
  18. regression parameters '''
  19. m, n = X.shape
  20. p = zeros(shape=(m,1))
  21. h = sigmoid(X.dot(theta.T))
  22. for it in range(0, h.shape[0]):
  23. if h[it]>0.5:
  24. p[it,0]=1
  25. else:
  26. p[it,0]=0
  27. return p
  28. #% Compute accuracy on our training set
  29. p = predict(array(theta), it)
  30. print'Train Accuracy: %f'%((y[where(p == y)].size / float(y.size))*100.0)

得到的结果如下图所示:

我们发现我们得到的这条曲线确实将两类点区分开来了。

6、总结

最后我们总结一下逻辑回归。它始于输出结果为有实际意义的连续值的线性回归,但是线性回归对于分类的问题没有办法准确而又具备鲁棒性地分割,因此我们设计出了逻辑回归这样一个算法,它的输出结果表征了某个样本属于某类别的概率。

逻辑回归的成功之处在于,将原本输出结果范围可以非常大的θTX 通过sigmoid函数映射到(0,1),从而完成概率的估测。

而直观地在二维空间理解逻辑回归,是sigmoid函数的特性,使得判定的阈值能够映射为平面的一条判定边界,当然随着特征的复杂化,判定边界可能是多种多样的样貌,但是它能够较好地把两类样本点分隔开,解决分类问题。

求解逻辑回归参数的传统方法是梯度下降,构造为凸函数的代价函数后,每次沿着偏导方向(下降速度最快方向)迈进一小部分,直至N次迭代后到达最低点。

原文发布于微信公众号 - 大数据挖掘DT数据分析(datadw)

原文发表时间:2015-11-03

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏大数据挖掘DT机器学习

常见的机器学习&数据挖掘数学知识点

常见的机器学习&数据挖掘数学知识点之Basis SSE(Sum of Squared Error, 平方误差和) SSE=∑i=1n(Xi−X¯¯¯)2 ...

4017
来自专栏大数据挖掘DT机器学习

利用回归模型预测数值型数据(代码)

机器学习算法按照目标变量的类型,分为标称型数据和连续型数据。标称型数据类似于标签型的数据,而对于它的预测方法称为分类,连续型数据类似于预测的结果为一定范围内的...

4087
来自专栏决胜机器学习

深层神经网络参数调优(二) ——dropout、题都消失与梯度检验

深层神经网络参数调优(二)——dropout、题都消失与梯度检验 (原创内容,转载请注明来源,谢谢) 一、dropout正则化 中文是随机失活正则化,这个是一...

3425
来自专栏PPV课数据科学社区

机器学习常见的算法面试题总结

摘要:包含机器学习常见算法公式、原理和优缺点比较,简介清洗,适合作为面试和考试前速查和记忆使用。 朴素贝叶斯 P(A∩B)=P(A)*P(B|A)=P(B)*P...

4745
来自专栏智能算法

分类回归树算法---CART

一、算法介绍 分类回归树算法:CART(Classification And Regression Tree)算法也属于一种决策树,和之前介绍了C4.5算法相...

4428
来自专栏社区的朋友们

机器学习概念总结笔记(一)

本部分介绍了机器学习算法的四大分类,即:监督学习、半监督学习、无监督学习和增强学习以及包括最小二乘回归、岭回归、LASSO回归、LARS回归在内的26大常见算法...

1.2K3
来自专栏大数据挖掘DT机器学习

判别模型、生成模型与朴素贝叶斯方法

1、判别模型与生成模型 回归模型其实是判别模型,也就是根据特征值来求结果的概率。形式化表示为 ? ,在参数 ? 确定的情况下,求解条件概率 ? 。通俗的解...

3296
来自专栏张俊红

一些算法的小结

总第54篇 算法目的:分类、预测 算法分类:监督型、非监督型 算法的核心:你有什么数据、你要解决什么问题 ---- 01|线性回归: 1、什么是回归 回归,指...

3034
来自专栏人工智能LeadAI

机器学习之分类性能度量指标 : ROC曲线、AUC值、正确率、召回率

在分类任务中,人们总是喜欢基于错误率来衡量分类器任务的成功程度。错误率指的是在所有测试样例中错分的样例比例。实际上,这样的度量错误掩盖了样例如何被分错的事实。在...

3984
来自专栏海天一树

Precision, Recall, F-score, ROC, AUC

正样本就是使系统得出正确结论的例子,负样本相反。 比如你要从一堆猫狗图片中检测出狗的图片,那么狗就是正样本,猫就是负样本;反过来你若是想检测出猫的图片,那么猫就...

351

扫描关注云+社区