机器学习:基于逻辑回归的matlab实现

1.回归:

https://www.cnblogs.com/chenqionghe/p/12593438.html

  • 回归简单来说就是:越来越接近期望值,回归事务本质的过程
  • 带有回归两字的解决办法不一定是解决回归问题,逻辑回归解决的是分类问题

2.最大似然估计:

https://zhuanlan.zhihu.com/p/26614750

  • 其实就是已知数据去推测模型,通过已知数据函数(已知抛硬币正反面按照二项分布分布)建立概率模型,找到使得概率模型值最大的(也就是说在此概率模型中,找到使得已知数据事件发生的可能最高的参数值)

3.逻辑回归(对数几率回归)

https://zhuanlan.zhihu.com/p/74874291?utm_source=com.youdao.note

(1)关于为什么用对数几率函数:https://zhuanlan.zhihu.com/p/42656051

(2)大概过程叙述:首先我们对数据进行分类的方法,就是根据坐标与我们所选的模型线/平面等的位置关系,这样一来也就有了一个判断函数,可是判断函数和概率判决式(Y=1/Y=0)无法进行度量的统一,判断函数中是与0比较,概率判决式中是(正例概率/反例概率)与1比较,因此度量无法进行统一,我们只能用对数对概率判决式进行优化。通过优化以后我们就会有正例和反例的概率,通过正例和反例的概率我们假设是二项分布,那么就会有极大似然函数,然后再通过梯度下降、牛顿法等等去求解解

判断函数:通过已知数据判断应该分在哪一类

概率判决式:分在正例类/分在反例类的概率应该大于1

实质上最大似然函数和最小化损失函数实际上是等价的

posted @ 2022-03-21 09:41  bonel  阅读(642)  评论(0编辑  收藏  举报