会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
刘建平Pinard
十五年码农,对数学统计学,数据挖掘,机器学习,大数据平台,大数据平台应用开发,大数据可视化感兴趣。
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
6
7
8
9
10
11
12
13
14
下一页
2016年12月29日
谱聚类(spectral clustering)原理总结
摘要: 谱聚类(spectral clustering)是广泛使用的聚类算法,比起传统的K-Means算法,谱聚类对数据分布的适应性更强,聚类效果也很优秀,同时聚类的计算量也小很多,更加难能可贵的是实现起来也不复杂。在处理实际的聚类问题时,个人认为谱聚类是应该首先考虑的几种算法之一。下面我们就对谱聚类的算法
阅读全文
posted @ 2016-12-29 11:11 刘建平Pinard
阅读(334062)
评论(299)
推荐(88)
2016年12月24日
用scikit-learn学习DBSCAN聚类
摘要: 在DBSCAN密度聚类算法中,我们对DBSCAN聚类算法的原理做了总结,本文就对如何用scikit-learn来学习DBSCAN聚类做一个总结,重点讲述参数的意义和需要调参的参数。 1. scikit-learn中的DBSCAN类 在scikit-learn中,DBSCAN算法类为sklearn.c
阅读全文
posted @ 2016-12-24 18:54 刘建平Pinard
阅读(129242)
评论(78)
推荐(14)
2016年12月22日
DBSCAN密度聚类算法
摘要: DBSCAN(Density-Based Spatial Clustering of Applications with Noise,具有噪声的基于密度的聚类方法)是一种很典型的密度聚类算法,和K-Means,BIRCH这些一般只适用于凸样本集的聚类相比,DBSCAN既可以适用于凸样本集,也可以适用
阅读全文
posted @ 2016-12-22 16:32 刘建平Pinard
阅读(258276)
评论(80)
推荐(38)
2016年12月19日
用scikit-learn学习BIRCH聚类
摘要: 在BIRCH聚类算法原理中,我们对BIRCH聚类算法的原理做了总结,本文就对scikit-learn中BIRCH算法的使用做一个总结。 1. scikit-learn之BIRCH类 在scikit-learn中,BIRCH类实现了原理篇里讲到的基于特征树CF Tree的聚类。因此要使用BIRCH来聚
阅读全文
posted @ 2016-12-19 22:00 刘建平Pinard
阅读(26141)
评论(55)
推荐(5)
2016年12月14日
BIRCH聚类算法原理
摘要: 在K-Means聚类算法原理中,我们讲到了K-Means和Mini Batch K-Means的聚类原理。这里我们再来看看另外一种常见的聚类算法BIRCH。BIRCH算法比较适合于数据量大,类别数K也比较多的情况。它运行速度很快,只需要单遍扫描数据集就能进行聚类,当然需要用到一些技巧,下面我们就对B
阅读全文
posted @ 2016-12-14 17:13 刘建平Pinard
阅读(76735)
评论(74)
推荐(25)
2016年12月13日
用scikit-learn学习K-Means聚类
摘要: 在K-Means聚类算法原理中,我们对K-Means的原理做了总结,本文我们就来讨论用scikit-learn来学习K-Means聚类。重点讲述如何选择合适的k值。 1. K-Means类概述 在scikit-learn中,包括两个K-Means的算法,一个是传统的K-Means算法,对应的类是KM
阅读全文
posted @ 2016-12-13 15:50 刘建平Pinard
阅读(119951)
评论(73)
推荐(17)
2016年12月12日
K-Means聚类算法原理
摘要: K-Means算法是无监督的聚类算法,它实现起来比较简单,聚类效果也不错,因此应用很广泛。K-Means算法有大量的变体,本文就从最传统的K-Means算法讲起,在其基础上讲述K-Means的优化变体方法。包括初始化优化K-Means++, 距离计算优化elkan K-Means算法和大数据情况下的
阅读全文
posted @ 2016-12-12 16:57 刘建平Pinard
阅读(334773)
评论(79)
推荐(41)
2016年12月11日
scikit-learn随机森林调参小结
摘要: 在Bagging与随机森林算法原理小结中,我们对随机森林(Random Forest, 以下简称RF)的原理做了总结。本文就从实践的角度对RF做一个总结。重点讲述scikit-learn中RF的调参注意事项,以及和GBDT调参的异同点。 1. scikit-learn随机森林类库概述 在scikit
阅读全文
posted @ 2016-12-11 21:23 刘建平Pinard
阅读(165904)
评论(166)
推荐(34)
2016年12月10日
Bagging与随机森林算法原理小结
摘要: 在集成学习原理小结中,我们讲到了集成学习有两个流派,一个是boosting派系,它的特点是各个弱学习器之间有依赖关系。另一种是bagging流派,它的特点是各个弱学习器之间没有依赖关系,可以并行拟合。本文就对集成学习中Bagging与随机森林算法做一个总结。 随机森林是集成学习中可以和梯度提升树GB
阅读全文
posted @ 2016-12-10 20:38 刘建平Pinard
阅读(138363)
评论(165)
推荐(35)
2016年12月9日
scikit-learn 梯度提升树(GBDT)调参小结
摘要: 在梯度提升树(GBDT)原理小结中,我们对GBDT的原理做了总结,本文我们就从scikit-learn里GBDT的类库使用方法作一个总结,主要会关注调参中的一些要点。 1. scikit-learn GBDT类库概述 在sacikit-learn中,GradientBoostingClassifie
阅读全文
posted @ 2016-12-09 17:17 刘建平Pinard
阅读(132917)
评论(108)
推荐(26)
上一页
1
···
6
7
8
9
10
11
12
13
14
下一页
公告