逻辑回归知识点总结

1、总述

逻辑回归是应用非常广泛的一个分类机器学习算法,它将数据拟合到一个logit函数(或者叫做logistic函数)中,从而能够完成对事件发生的概率进行预测。

2、由来

    要说逻辑回归,我们得追溯到线性回归,想必大家对线性回归都有一定的了解,即对于多维空间中存在的样本点,我们用特征的线性组合去拟合空间中点的分布和轨迹。如下图所示:

    线性回归能对连续值结果进行预测,而现实生活中常见的另外一类问题是,分类问题。最简单的情况是是与否的二分类问题。比如说医生需要判断病人是否生病,银行要判断一个人的信用程度是否达到可以给他发信用卡的程度,邮件收件箱要自动对邮件分类为正常邮件和垃圾邮件等等。

    当然,我们最直接的想法是,既然能够用线性回归预测出连续值结果,那根据结果设定一个阈值是不是就可以解决这个问题了呢?事实是,对于很标准的情况,确实可以的,这里我们套用Andrew Ng老师的课件中的例子,下图中X为数据点肿瘤的大小,Y为观测结果是否是恶性肿瘤。通过构建线性回归模型,如hθ(x)所示,构建线性回归模型后,我们设定一个阈值0.5,预测hθ(x)≥0.5的这些点为恶性肿瘤,而hθ(x)<0.5为良性肿瘤。

    但很多实际的情况下,我们需要学习的分类数据并没有这么精准,比如说上述例子中突然有一个不按套路出牌的数据点出现,如下图所示:

    你看,现在你再设定0.5,这个判定阈值就失效了,而现实生活的分类问题的数据,会比例子中这个更为复杂,而这个时候我们借助于线性回归+阈值的方式,已经很难完成一个鲁棒性很好的分类器了。

    在这样的场景下,逻辑回归就诞生了。它的核心思想是,如果线性回归的结果输出是一个连续值,而值的范围是无法限定的,那我们有没有办法把这个结果值映射为可以帮助我们判断的结果呢。而如果输出结果是 (0,1) 的一个概率值,这个问题就很清楚了。我们在数学上找了一圈,还真就找着这样一个简单的函数了,就是很神奇的sigmoid函数(如下):

 

    如果把sigmoid函数图像画出来,是如下的样子:

Sigmoid Logistic Function

    从函数图上可以看出,函数y=g(z)在z=0的时候取值为1/2,而随着z逐渐变小,函数值趋于0,z逐渐变大的同时函数值逐渐趋于1,而这正是一个概率的范围。

    所以我们定义线性回归的预测函数为Y=WTX,那么逻辑回归的输出Y= g(WTX),其中y=g(z)函数正是上述sigmoid函数(或者简单叫做S形函数)。

 

3、判定边界

    我们现在再来看看,为什么逻辑回归能够解决分类问题。这里引入一个概念,叫做判定边界,可以理解为是用以对不同类别的数据分割的边界,边界的两旁应该是不同类别的数据。

    从二维直角坐标系中,举几个例子,大概是如下这个样子:

    有时候是这个样子:

    

    甚至可能是这个样子:

    上述三幅图中的红绿样本点为不同类别的样本,而我们划出的线,不管是直线、圆或者是曲线,都能比较好地将图中的两类样本分割开来。这就是我们的判定边界,下面我们来看看,逻辑回归是如何根据样本点获得这些判定边界的。

    我们依旧借用Andrew Ng教授的课程中部分例子来讲述这个问题。

    回到sigmoid函数,我们发现:  

        当g(z)0.5时, z0;

        对于hθ(x)=g(θTX)0.5, 则θTX0, 此时意味着预估y=1;

        反之,当预测y = 0时,θTX<0;

    所以我们认为θTX =0是一个决策边界,当它大于0或小于0时,逻辑回归模型分别预测不同的分类结果。

    先看第一个例子hθ(x)=g01X12X2),其中θ0 ,θ1 ,θ2分别取-3, 1, 1。则当−3+X1+X20时, y = 1; 则X1+X2=3是一个决策边界,图形表示如下,刚好把图上的两类点区分开来:

    例1只是一个线性的决策边界,当hθ(x)更复杂的时候,我们可以得到非线性的决策边界,例如:

    这时当x12+x22≥1时,我们判定y=1,这时的决策边界是一个圆形,如下图所示:

    所以我们发现,理论上说,只要我们的hθ(x)设计足够合理,准确的说是g(θTx)中θTx足够复杂,我们能在不同的情形下,拟合出不同的判定边界,从而把不同的样本点分隔开来。

4、代价函数与梯度下降

    我们通过对判定边界的说明,知道会有合适的参数θ使得θTx=0成为很好的分类判定边界,那么问题就来了,我们如何判定我们的参数θ是否合适,有多合适呢?更进一步,我们有没有办法去求得这样的合适参数θ呢?

    这就是我们要提到的代价函数与梯度下降了。

 

    所谓的代价函数Cost Function,其实是一种衡量我们在这组参数下预估的结果和实际结果差距的函数,比如说线性回归的代价函数定义为:

当然我们可以和线性回归类比得到一个代价函数,实际就是上述公式中hθ(x)取为逻辑回归中的g(θTx),但是这会引发代价函数为“非凸”函数的问题,简单一点说就是这个函数有很多个局部最低点,如下图所示:

非凸函数-我爱公开课-52opencourse.com

而我们希望我们的代价函数是一个如下图所示,碗状结构的凸函数,这样我们算法求解到局部最低点,就一定是全局最小值点。

凸函数-我爱公开课-52opencouse.com

      因此,上述的Cost Function对于逻辑回归是不可行的,我们需要其他形式的Cost Function来保证逻辑回归的成本函数是凸函数。

      我们跳过大量的数学推导,这里对于推导,具体可以看 https://blog.csdn.net/programmer_wei/article/details/52072939

  在这里直接出结论了,我们找到了一个适合逻辑回归的代价函数:

 

      Andrew Ng老师解释了一下这个代价函数的合理性,我们首先看当y=1的情况:

对数似然损失函数解释1-我爱公开课-52opencouse.com

       如果我们的类别y = 1, 而判定的hθ(x)=1,则Cost = 0,此时预测的值和真实的值完全相等,代价本该为0;而如果判断hθ(x)0,代价->∞,这很好地惩罚了最后的结果。

       而对于y=0的情况,如下图所示,也同样合理:

对数似然损失函数解释2-我爱公开课-52opencourse.com

       下面我们说说梯度下降,梯度下降算法是调整参数θ使得代价函数J(θ)取得最小值的最基本方法之一。从直观上理解,就是我们在碗状结构的凸函数上取一个初始值,然后挪动这个值一步步靠近最低点的过程,如下图所示:

    

 

      我们先简化一下逻辑回归的代价函数:

逻辑回归代价函数简化公式-我爱公开课-52opencourse.com

       从数学上理解,我们为了找到最小值点,就应该朝着下降速度最快的方向(导函数/偏导方向)迈进,每次迈进一小步,再看看此时的下降最快方向是哪,再朝着这个方向迈进,直至最低点。

       用迭代公式表示出来的最小化J(θ)的梯度下降算法如下:

逻辑回归梯度下降算法-我爱公开课-52opencourse.com

梯度下降算法-我爱公开课-52opencourse.com

5、代码与实现

    我们来一起看两个具体数据上做逻辑回归分类的例子,其中一份数据为线性判定边界,另一份为非线性。

    示例1。

    第一份数据为data1.txt,部分内容如下:


    我们先来看看数据在空间的分布,代码如下。

 

[python] view plain copy
 
  1. from numpy import loadtxt, where  
  2. from pylab import scatter, show, legend, xlabel, ylabel  
  3.   
  4. #load the dataset  
  5. data = loadtxt('/home/HanXiaoyang/data/data1.txt', delimiter=',')  
  6.   
  7. X = data[:, 0:2]  
  8. y = data[:, 2]  
  9.   
  10. pos = where(y == 1)  
  11. neg = where(y == 0)  
  12. scatter(X[pos, 0], X[pos, 1], marker='o', c='b')  
  13. scatter(X[neg, 0], X[neg, 1], marker='x', c='r')  
  14. xlabel('Feature1/Exam 1 score')  
  15. ylabel('Feature2/Exam 2 score')  
  16. legend(['Fail''Pass'])  
  17. show()  



 

    得到的结果如下:


    下面我们写好计算sigmoid函数、代价函数、和梯度下降的程序:

 

[python] view plain copy
 
  1. def sigmoid(X):  
  2.     '''''Compute sigmoid function '''  
  3.     den =1.0+ e **(-1.0* X)  
  4.     gz =1.0/ den  
  5.     return gz  
  6. def compute_cost(theta,X,y):  
  7.     '''''computes cost given predicted and actual values'''  
  8.     m = X.shape[0]#number of training examples  
  9.     theta = reshape(theta,(len(theta),1))  
  10.       
  11.     J =(1./m)*(-transpose(y).dot(log(sigmoid(X.dot(theta))))- transpose(1-y).dot(log(1-sigmoid(X.dot(theta)))))  
  12.       
  13.     grad = transpose((1./m)*transpose(sigmoid(X.dot(theta))- y).dot(X))  
  14.     #optimize.fmin expects a single value, so cannot return grad  
  15.     return J[0][0]#,grad  
  16. def compute_grad(theta, X, y):  
  17.     '''''compute gradient'''  
  18.     theta.shape =(1,3)  
  19.     grad = zeros(3)  
  20.     h = sigmoid(X.dot(theta.T))  
  21.     delta = h - y  
  22.     l = grad.size  
  23.     for i in range(l):  
  24.         sumdelta = delta.T.dot(X[:, i])  
  25.         grad[i]=(1.0/ m)* sumdelta *-1  
  26.     theta.shape =(3,)  
  27.     return  grad  



 

    我们用梯度下降算法得到的结果判定边界是如下的样子:


    最后我们使用我们的判定边界对training data做一个预测,然后比对一下准确率:

 

[python] view plain copy
 
  1. def predict(theta, X):  
  2.     '''''Predict label using learned logistic regression parameters'''  
  3.     m, n = X.shape  
  4.     p = zeros(shape=(m,1))  
  5.     h = sigmoid(X.dot(theta.T))  
  6.     for it in range(0, h.shape[0]):  
  7.         if h[it]>0.5:  
  8.             p[it,0]=1  
  9.         else:  
  10.             p[it,0]=0  
  11.     return p  
  12. #Compute accuracy on our training set  
  13. p = predict(array(theta), it)  
  14. print'Train Accuracy: %f'%((y[where(p == y)].size / float(y.size))*100.0)  

 

    计算出来的结果是89.2%

 

    示例2.

    第二份数据为data2.txt,部分内容如下:


    我们同样把数据的分布画出来,如下:


    我们发现在这个例子中,我们没有办法再用一条直线把两类样本点近似分开了,所以我们打算试试多项式的判定边界,那么我们先要对给定的两个feature做一个多项式特征的映射。比如说,我们做了如下的一个映射:


    代码如下:

 

[python] view plain copy
 
  1. def map_feature(x1, x2):  
  2.     ''''' 
  3.     Maps the two input features to polonomial features. 
  4.     Returns a new feature array with more features of 
  5.     X1, X2, X1 ** 2, X2 ** 2, X1*X2, X1*X2 ** 2, etc... 
  6.     '''  
  7.     x1.shape =(x1.size,1)  
  8.     x2.shape =(x2.size,1)  
  9.     degree =6  
  10.     mapped_fea = ones(shape=(x1[:,0].size,1))  
  11.     m, n = mapped_fea.shape  
  12.     for i in range(1, degree +1):  
  13.         for j in range(i +1):  
  14.             r =(x1 **(i - j))*(x2 ** j)  
  15.             mapped_fea = append(<span style="font-family:Arial, Helvetica, sans-serif;">mapped_fea</span><span style="font-family:Arial, Helvetica, sans-serif;">, r, axis=1)</span>  
  16.     return mapped_fea  
  17. mapped_fea = map_feature(X[:,0], X[:,1])  

 

      接着做梯度下降:

 

[python] view plain copy
 
  1. def cost_function_reg(theta, X, y, l):  
  2.     '''''Compute the cost and partial derivatives as grads 
  3.     '''  
  4.     h = sigmoid(X.dot(theta))  
  5.     thetaR = theta[1:,0]  
  6.     J =(1.0/ m)*((-y.T.dot(log(h)))-((1- y.T).dot(log(1.0- h)))) \  
  7.             +(l /(2.0* m))*(thetaR.T.dot(thetaR))  
  8.     delta = h - y  
  9.     sum_delta = delta.T.dot(X[:,1])  
  10.     grad1 =(1.0/ m)* sumdelta  
  11.     XR = X[:,1:X.shape[1]]  
  12.     sum_delta = delta.T.dot(XR)  
  13.     grad =(1.0/ m)*(sum_delta + l * thetaR)  
  14.     out = zeros(shape=(grad.shape[0], grad.shape[1]+1))  
  15.     out[:,0]= grad1  
  16.     out[:,1:]= grad  
  17.     return J.flatten(), out.T.flatten()  
  18. m, n = X.shape  
  19. y.shape =(m,1)  
  20. it = map_feature(X[:,0], X[:,1])  
  21. #Initialize theta parameters  
  22. initial_theta = zeros(shape=(it.shape[1],1))  
  23. #Use regularization and set parameter lambda to 1  
  24. l =1  
  25. # Compute and display initial cost and gradient for regularized logistic  
  26. # regression  
  27. cost, grad = cost_function_reg(initial_theta, it, y, l)  
  28. def decorated_cost(theta):  
  29.     return cost_function_reg(theta, it, y, l)  
  30. print fmin_bfgs(decorated_cost, initial_theta, maxfun=500)  

 

      接着在数据点上画出判定边界:

 

[python] view plain copy
 
  1. #Plot Boundary  
  2. u = linspace(-1,1.5,50)  
  3. v = linspace(-1,1.5,50)  
  4. z = zeros(shape=(len(u), len(v)))  
  5. for i in range(len(u)):  
  6.     for j in range(len(v)):  
  7.         z[i, j]=(map_feature(array(u[i]), array(v[j])).dot(array(theta)))  
  8. z = z.T  
  9. contour(u, v, z)  
  10. title('lambda = %f'% l)  
  11. xlabel('Microchip Test 1')  
  12. ylabel('Microchip Test 2')  
  13. legend(['y = 1','y = 0','Decision boundary'])  
  14. show()  
  15. def predict(theta, X):  
  16.     '''''Predict whether the label 
  17.     is 0 or 1 using learned logistic 
  18.     regression parameters '''  
  19.     m, n = X.shape  
  20.     p = zeros(shape=(m,1))  
  21.     h = sigmoid(X.dot(theta.T))  
  22.     for it in range(0, h.shape[0]):  
  23.         if h[it]>0.5:  
  24.             p[it,0]=1  
  25.         else:  
  26.             p[it,0]=0  
  27.     return p  
  28. #% Compute accuracy on our training set  
  29. p = predict(array(theta), it)  
  30. print'Train Accuracy: %f'%((y[where(p == y)].size / float(y.size))*100.0)  

 

       得到的结果如下图所示:


       我们发现我们得到的这条曲线确实将两类点区分开来了。

6、总结

       最后我们总结一下逻辑回归。它始于输出结果为有实际意义的连续值的线性回归,但是线性回归对于分类的问题没有办法准确而又具备鲁棒性地分割,因此我们设计出了逻辑回归这样一个算法,它的输出结果表征了某个样本属于某类别的概率。

       逻辑回归的成功之处在于,将原本输出结果范围可以非常大的θTX 通过sigmoid函数映射到(0,1),从而完成概率的估测。

        而直观地在二维空间理解逻辑回归,是sigmoid函数的特性,使得判定的阈值能够映射为平面的一条判定边界,当然随着特征的复杂化,判定边界可能是多种多样的样貌,但是它能够较好地把两类样本点分隔开,解决分类问题。

       求解逻辑回归参数的传统方法是梯度下降,构造为凸函数的代价函数后,每次沿着偏导方向(下降速度最快方向)迈进一小部分,直至N次迭代后到达最低点。

 

 

7、补充

 

      本文的2份数据可在http://pan.baidu.com/s/1pKxJl1p上下载到,分别为data1.txt和data2.txt,欢迎大家自己动手尝试。

      关于逻辑回归的完整ipython notebook示例代码可以在我的github上(https://github.com/HanXiaoyang/ML_examples/tree/master/logistic_regression)下载到,欢迎指正。

  本文转载于寒小阳博客https://blog.csdn.net/han_xiaoyang/article/details/49123419,基于其博客稍微添加。

posted @ 2018-04-18 11:09  一朵包纸  阅读(8662)  评论(0编辑  收藏  举报