AI-统计学习(14)-Adaboost(1)-基本模型

  Adaboost由于其分类效果好,算法简单,还有其可靠的理论基础,深受大家欢迎。

1.用来解决什么问题:二分类模型。

2.如何解决:弱学习器的叠加生成强学习器

3.判断标准:分类误差率

4.调整的是什么?基本分类器的权重

5.步骤:N

6.总结:并行


      其实这些模型难于理解在于看到公式表达就头晕,所以针对每个字符的意义,我做了详细的说明,这样一看就明白了。

提升方式基本思想:其实跟RNN有点像,思想上都是由前一个模型的值来影响后一个模型的形成。只是RNN更多的是为了解决共享特征的问题,而这个是为了解决分类问题。

模型有两种模式,一个叫序列,一个叫并行

序列:下一个模型的形成依赖于上一个模型的方法。RNN(参看RNN那篇)为了解决共享特征的问题,也是序列性的。

并行:同时学习很多模型。

 

权重分两个,一个整体的,一个是在单个样本点上的表现效果。

 

Adaboost步骤:

  1. 初始化权重

2.计算每个分类器

  a)基本分类器计算

  b)每一个分类误差率计算

c)每个分类器的系数

d)更新训练数据集的权值分布

3.构建基本分类器的线性组合

4.得最终分类器

 

posted @ 2019-11-19 19:12  jasmineTang  阅读(101)  评论(0)    收藏  举报