微信扫一扫打赏支持

【机器学习】逻辑回归详解总结

【机器学习】逻辑回归详解总结

一、总结

一句话总结:

还是要看【视频结合看书】,这样才有意义,还是得【多看书】,【多看视频】

 

1、Logistic 回归的本质?

假设数据服从这个分布,然后使用【极大似然估计做【参数的估计】】。

 

2、逻辑回归 中的最大化似然函数和最小化损失函数的关系?

在逻辑回归模型中,我们最大化似然函数和最小化损失函数实际上是【等价】的。

 

3、逻辑回归求解方法?

1.【随机梯度下降】:梯度下降是通过 J(w) 对 w 的一阶导数来找下降方向,并且以迭代的方式来更新参数
2.【牛顿法】:牛顿法的基本思路是,【在现有极小点估计值的附近对 f(x) 做【二阶泰勒展开】,进而找到极小点的下一个【估计值】】。

 

4、逻辑回归与线性回归 对比?

逻辑回归是在线性回归的基础上【加了一个 Sigmoid 函数】(非线形)映射,使得逻辑回归称为了一个优秀的分类算法。
本质上来说,两者都属于广义线性模型,但他们两个要解决的问题不一样,逻辑回归解决的是【分类问题】,输出的是离散值,线性回归解决的是【回归问题】,输出的连续值。

 

5、逻辑回归与最大熵模型 对比?

逻辑回归和最大熵模型【本质上没有区别】,最大熵在解决二分类问题时就是逻辑回归,在解决多分类问题时就是【多项逻辑回归】。

 

6、逻辑回归与朴素贝叶斯 对比?

朴素贝叶斯和逻辑回归都属于分类模型,当朴素贝叶斯的条件概率 P(X|Y=c_k) 服从高斯分布时,它【计算出来的 P(Y=1|X) 形式跟逻辑回归是一样的】。
两个模型不同的地方在于:逻辑回归是【判别式模型 p(y|x)】,朴素贝叶斯是【生成式模型 p(x,y)】

 

 

 

二、【机器学习】逻辑回归详解总结

转自:https://zhuanlan.zhihu.com/p/74874291

 

 

 

 
posted @ 2020-12-11 10:02  范仁义  阅读(457)  评论(0编辑  收藏  举报