会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
刘建平Pinard
十五年码农,对数学统计学,数据挖掘,机器学习,大数据平台,大数据平台应用开发,大数据可视化感兴趣。
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
7
8
9
10
11
12
13
14
下一页
2016年12月7日
梯度提升树(GBDT)原理小结
摘要: 在集成学习之Adaboost算法原理小结中,我们对Boosting家族的Adaboost算法做了总结,本文就对Boosting家族中另一个重要的算法梯度提升树(Gradient Boosting Decison Tree, 以下简称GBDT)做一个总结。GBDT有很多简称,有GBT(Gradient
阅读全文
posted @ 2016-12-07 19:59 刘建平Pinard
阅读(340313)
评论(617)
推荐(67)
2016年12月6日
scikit-learn Adaboost类库使用小结
摘要: 在集成学习之Adaboost算法原理小结中,我们对Adaboost的算法原理做了一个总结。这里我们就从实用的角度对scikit-learn中Adaboost类库的使用做一个小结,重点对调参的注意事项做一个总结。 1. Adaboost类库概述 scikit-learn中Adaboost类库比较直接,
阅读全文
posted @ 2016-12-06 19:41 刘建平Pinard
阅读(100238)
评论(118)
推荐(31)
2016年12月5日
集成学习之Adaboost算法原理小结
摘要: 在集成学习原理小结中,我们讲到了集成学习按照个体学习器之间是否存在依赖关系可以分为两类,第一个是个体学习器之间存在强依赖关系,另一类是个体学习器之间不存在强依赖关系。前者的代表算法就是是boosting系列算法。在boosting系列算法中, Adaboost是最著名的算法之一。Adaboost既可
阅读全文
posted @ 2016-12-05 22:26 刘建平Pinard
阅读(169602)
评论(362)
推荐(70)
2016年12月4日
集成学习原理小结
摘要: 集成学习(ensemble learning)可以说是现在非常火爆的机器学习方法了。它本身不是一个单独的机器学习算法,而是通过构建并结合多个机器学习器来完成学习任务。也就是我们常说的“博采众长”。集成学习可以用于分类问题集成,回归问题集成,特征选取集成,异常点检测集成等等,可以说所有的机器学习领域都
阅读全文
posted @ 2016-12-04 20:48 刘建平Pinard
阅读(103088)
评论(55)
推荐(67)
2016年12月2日
支持向量机高斯核调参小结
摘要: 在支持向量机(以下简称SVM)的核函数中,高斯核(以下简称RBF)是最常用的,从理论上讲, RBF一定不比线性核函数差,但是在实际应用中,却面临着几个重要的超参数的调优问题。如果调的不好,可能比线性核函数还要差。所以我们实际应用中,能用线性核函数得到较好效果的都会选择线性核函数。如果线性核不好,我们
阅读全文
posted @ 2016-12-02 21:59 刘建平Pinard
阅读(42464)
评论(60)
推荐(18)
2016年11月30日
scikit-learn 支持向量机算法库使用小结
摘要: 之前通过一个系列对支持向量机(以下简称SVM)算法的原理做了一个总结,本文从实践的角度对scikit-learn SVM算法库的使用做一个小结。scikit-learn SVM算法库封装了libsvm 和 liblinear 的实现,仅仅重写了算法了接口部分。 1. scikit-learn SVM
阅读全文
posted @ 2016-11-30 16:47 刘建平Pinard
阅读(47871)
评论(40)
推荐(12)
2016年11月29日
支持向量机原理(五)线性支持回归
摘要: 支持向量机原理(一) 线性支持向量机 支持向量机原理(二) 线性支持向量机的软间隔最大化模型 支持向量机原理(三)线性不可分支持向量机与核函数 支持向量机原理(四)SMO算法原理 支持向量机原理(五)线性支持回归 在前四篇里面我们讲到了SVM的线性分类和非线性分类,以及在分类时用到的算法。这些都关注
阅读全文
posted @ 2016-11-29 16:53 刘建平Pinard
阅读(43059)
评论(41)
推荐(11)
支持向量机原理(四)SMO算法原理
摘要: 支持向量机原理(一) 线性支持向量机 支持向量机原理(二) 线性支持向量机的软间隔最大化模型 支持向量机原理(三)线性不可分支持向量机与核函数 支持向量机原理(四)SMO算法原理 支持向量机原理(五)线性支持回归 在SVM的前三篇里,我们优化的目标函数最终都是一个关于$\alpha$向量的函数。而怎
阅读全文
posted @ 2016-11-29 00:11 刘建平Pinard
阅读(79270)
评论(173)
推荐(37)
2016年11月26日
支持向量机原理(三)线性不可分支持向量机与核函数
摘要: 支持向量机原理(一) 线性支持向量机 支持向量机原理(二) 线性支持向量机的软间隔最大化模型 支持向量机原理(三)线性不可分支持向量机与核函数 支持向量机原理(四)SMO算法原理 支持向量机原理(五)线性支持回归 在前面两篇我们讲到了线性可分SVM的硬间隔最大化和软间隔最大化的算法,它们对线性可分的
阅读全文
posted @ 2016-11-26 11:33 刘建平Pinard
阅读(37377)
评论(43)
推荐(14)
2016年11月25日
支持向量机原理(二) 线性支持向量机的软间隔最大化模型
摘要: 支持向量机原理(一) 线性支持向量机 支持向量机原理(二) 线性支持向量机的软间隔最大化模型 支持向量机原理(三)线性不可分支持向量机与核函数 支持向量机原理(四)SMO算法原理 支持向量机原理(五)线性支持回归 在支持向量机原理(一) 线性支持向量机中,我们对线性可分SVM的模型和损失函数优化做了
阅读全文
posted @ 2016-11-25 14:21 刘建平Pinard
阅读(44728)
评论(73)
推荐(20)
上一页
1
···
7
8
9
10
11
12
13
14
下一页
公告