Logistic Regression(逻辑回归)
1. 概念
logistic回归本质上是线性回归,只是在特征到结果的映射中加入了一层映射函数g(z),即先把特征线性求和,然后使用函数g(z)将作为假设函数来预测,使得y的取值在(0,1)区间内。这个函数成为Logistic函数,也成为Sigmoid函数
g(z) = \(\frac{1}{1 + e^{-z}}\)
逻辑曲线在z=0时十分敏感,在z>>0或者z<<0处,都不敏感,将预测值限定为(0,1)
Logistic Regression 只适合处理二元分类问题
对于解决多分类问题,可以采用Softmax Regression
当然也可以每次选择两类样本来做二元逻辑回归
2. 线性回归和逻辑回归
-
线性回归:
- 求出输出特征向量Y和输入样本矩阵X之间的线性关系系数\(\theta\), 满足Y=X \(\theta\)
- 此时Y是连续的,在整个实数域内敏感度一致
-
逻辑回归:
- 逻辑回归就是一种减小预测范围,将预测值限定为[0, 1]间的一种回归模型
- 确定阈值,用于解决二分类问题,Y是离散的
logistic回归用来分类0/1问题,也就是预测结果属于0或者1的二值分类问题
g(z)值越小,分类为0概率越高,如果靠近临界点,则分类准确率会下降
3. 二元逻辑回归
3.1 引言

损失函数:非凸函数,多个局部极小值

3.2 最大似然函数推导损失函数



3.3 损失函数极小化
对于二元逻辑回归的损失函数极小化,有比较多方法,最常见有梯度下降法,坐标轴下降法,牛顿法等。
梯度下降法与线性回归中参数更新方式完全相同

浙公网安备 33010602011771号