Logistic Regression(逻辑回归)

1. 概念

logistic回归本质上是线性回归,只是在特征到结果的映射中加入了一层映射函数g(z),即先把特征线性求和,然后使用函数g(z)将作为假设函数来预测,使得y的取值在(0,1)区间内。这个函数成为Logistic函数,也成为Sigmoid函数

g(z) = \(\frac{1}{1 + e^{-z}}\)

逻辑曲线在z=0时十分敏感,在z>>0或者z<<0处,都不敏感,将预测值限定为(0,1)

Logistic Regression 只适合处理二元分类问题

对于解决多分类问题,可以采用Softmax Regression
当然也可以每次选择两类样本来做二元逻辑回归


2. 线性回归和逻辑回归

  • 线性回归:

    • 求出输出特征向量Y和输入样本矩阵X之间的线性关系系数\(\theta\), 满足Y=X \(\theta\)
    • 此时Y是连续的,在整个实数域内敏感度一致
  • 逻辑回归:

    • 逻辑回归就是一种减小预测范围,将预测值限定为[0, 1]间的一种回归模型
    • 确定阈值,用于解决二分类问题,Y是离散的

    logistic回归用来分类0/1问题,也就是预测结果属于0或者1的二值分类问题

    g(z)值越小,分类为0概率越高,如果靠近临界点,则分类准确率会下降

3. 二元逻辑回归

3.1 引言

损失函数:非凸函数,多个局部极小值

3.2 最大似然函数推导损失函数



3.3 损失函数极小化

对于二元逻辑回归的损失函数极小化,有比较多方法,最常见有梯度下降法,坐标轴下降法,牛顿法等。

梯度下降法与线性回归中参数更新方式完全相同

posted @ 2024-10-16 19:28  awei040519  阅读(35)  评论(0)    收藏  举报