Logistic 回归与Softmax 回归

 

Logistic Regression(逻辑回归)用来预测样本属于两个类别0或者1的概率。

因为逻辑回归是Sigmoid函数,所以输出0到1之间的数字,这个值就是属于各自类别的概率。

 

若概率大于0.5,则认为该样本属于类别1,概率低于0.5则属于类别0

 

 

训练逻辑回归模型:

1. 铰链损失(Hinge Loss):主要用于支持向量机(SVM) 中;
2. 互熵损失 (Cross Entropy Loss,Softmax Loss ):用于Logistic 回归与Softmax 分类中;
3. 平方损失(Square Loss):主要是最小二乘法(OLS)中;
4. 指数损失(Exponential Loss) :主要用于Adaboost 集成学习算法中;
5. 其他损失(如0-1损失,绝对值损失)

在二分类问题中,对于单一的样本,有如下损失函数

 

 那么对于样本集,损失函数如下:

 

 对于这个函数,可以使用梯下降求解

 

 

 Softmax Regression:一次只能预测一个类,所以它只能用于互斥的类别,比如不同类型的植物。

函数如下

 

(摘自网上)

注意:每个类都有自己专用的参数向量,k代表类别

 

 当计算完每个类别的分数后,就可以通过softmax函数通过得分来估计实例属于类k的概率。

 

Softmax回归分类器与Logistic回归分类器一样,预测估计概率最高的类

 利用交叉熵损失函数训练Softmax Regression Classifier

 

 从上式可知,当只有两个类(K = 2)时,这个代价函数等价于Logistic回归的代价函数

利用梯度下降最小化代价函数

 

 

 

 

 

 

 

posted @ 2020-10-07 14:33  GoBetter  阅读(344)  评论(0)    收藏  举报