随笔分类 -  集成学习

集成学习入门嗷
摘要:##Stacking 先前学习的集成学习 先前的思路很简单,假设有三个算法,每个算法都对数据进行一个预测,最后综合这三个结果得出一个最终结果,对于分类问题可以进行少数服从多数,对于回归问题可以简单地取平均值 stacking是另一种思路,对于stacking这个方法来说,假设有三个算法,首先求出这三 阅读全文
posted @ 2021-01-30 00:11 DbWong_0918 阅读(602) 评论(0) 推荐(0) 编辑
摘要:##Ada Boosting和Gradient Boosting ###Ada Boosting 除了先前的集成学习的思路以外,还有一种集成学习的思路boosting,这种思路,也是集成多个模型,但是和bagging不同的是,bagging的模型之间是独立的关系,但是在boosting中,模型之间不 阅读全文
posted @ 2021-01-30 00:08 DbWong_0918 阅读(279) 评论(0) 推荐(0) 编辑
摘要:##随机森林和Extra-Trees ###随机森林 先前说了bagging的方法,其中使用的算法都是决策树算法,对于这样的模型,因为具有很多棵树,而且具备了随机性,那么就可以称为随机森林 在sklearn中封装了随机森林的类,可以使用这个类直接创建出一个随机森林,同时sklearn中的随机森林模型 阅读全文
posted @ 2021-01-30 00:04 DbWong_0918 阅读(2208) 评论(0) 推荐(0) 编辑
摘要:##Bagging和Pasting以及oob(Out-of-Bag) ###Bagging和Pasting 前面讲到soft voting classifier和hard voting classifier两个方法,但是这是有很大的问题的,集成学习就是集合多个算法让这几个算法一起计算投票,最后得到好 阅读全文
posted @ 2021-01-30 00:01 DbWong_0918 阅读(771) 评论(0) 推荐(0) 编辑
摘要:##集成学习入门之soft voting classifier和hard voting classifier ###集成学习 通过构建并结合多个学习器来完成学习任务,一般是先产生一组“个体学习器”,再用某种策略将它们结合起来,有很多种形式,像是投票,概率比较等等,像是投票就是少数服从多数 生活中经常 阅读全文
posted @ 2021-01-29 23:56 DbWong_0918 阅读(1220) 评论(0) 推荐(0) 编辑