随笔分类 -  0081. 机器学习

摘要:在局部线性嵌入(LLE)原理总结中,我们对流形学习中的局部线性嵌入(LLE)算法做了原理总结。这里我们就对scikit-learn中流形学习的一些算法做一个介绍,并着重对其中LLE算法的使用方法做一个实践上的总结。 1. scikit-learn流形学习库概述 在scikit-learn中,流形学习 阅读全文
posted @ 2017-01-11 16:32 刘建平Pinard 阅读(11081) 评论(0) 推荐(5) 编辑
摘要:局部线性嵌入(Locally Linear Embedding,以下简称LLE)也是非常重要的降维方法。和传统的PCA,LDA等关注样本方差的降维方法相比,LLE关注于降维时保持样本局部的线性特征,由于LLE在降维时保持了样本的局部特征,它广泛的用于图像图像识别,高维数据可视化等领域。下面我们就对L 阅读全文
posted @ 2017-01-10 12:34 刘建平Pinard 阅读(64795) 评论(94) 推荐(15) 编辑
摘要:奇异值分解(Singular Value Decomposition,以下简称SVD)是在机器学习领域广泛应用的算法,它不光可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。本文就对SVD的原理做一个总结,并讨论在在PCA降维算法中是如何运用运用SV 阅读全文
posted @ 2017-01-05 15:44 刘建平Pinard 阅读(278844) 评论(125) 推荐(123) 编辑
摘要:在线性判别分析LDA原理总结中,我们对LDA降维的原理做了总结,这里我们就对scikit-learn中LDA的降维使用做一个总结。 1. 对scikit-learn中LDA类概述 在scikit-learn中, LDA类是sklearn.discriminant_analysis.LinearDis 阅读全文
posted @ 2017-01-04 17:04 刘建平Pinard 阅读(41730) 评论(29) 推荐(8) 编辑
摘要:在主成分分析(PCA)原理总结中,我们对降维算法PCA做了总结。这里我们就对另外一种经典的降维方法线性判别分析(Linear Discriminant Analysis, 以下简称LDA)做一个总结。LDA在模式识别领域(比如人脸识别,舰艇识别等图形图像识别领域)中有非常广泛的应用,因此我们有必要了 阅读全文
posted @ 2017-01-03 16:47 刘建平Pinard 阅读(293996) 评论(207) 推荐(55) 编辑
摘要:在主成分分析(PCA)原理总结中,我们对主成分分析(以下简称PCA)的原理做了总结,下面我们就总结下如何使用scikit-learn工具来进行PCA降维。 1. scikit-learn PCA类介绍 在scikit-learn中,与PCA相关的类都在sklearn.decomposition包中。 阅读全文
posted @ 2017-01-02 20:55 刘建平Pinard 阅读(154821) 评论(74) 推荐(18) 编辑
摘要:主成分分析(Principal components analysis,以下简称PCA)是最重要的降维方法之一。在数据压缩消除冗余和数据噪音消除等领域都有广泛的应用。一般我们提到降维最容易想到的算法就是PCA,下面我们就对PCA的原理做一个总结。 1. PCA的思想 PCA顾名思义,就是找出数据里最 阅读全文
posted @ 2016-12-31 21:07 刘建平Pinard 阅读(223701) 评论(256) 推荐(65) 编辑
摘要:在谱聚类(spectral clustering)原理总结中,我们对谱聚类的原理做了总结。这里我们就对scikit-learn中谱聚类的使用做一个总结。 1. scikit-learn谱聚类概述 在scikit-learn的类库中,sklearn.cluster.SpectralClustering 阅读全文
posted @ 2016-12-30 17:16 刘建平Pinard 阅读(41527) 评论(47) 推荐(8) 编辑
摘要:谱聚类(spectral clustering)是广泛使用的聚类算法,比起传统的K-Means算法,谱聚类对数据分布的适应性更强,聚类效果也很优秀,同时聚类的计算量也小很多,更加难能可贵的是实现起来也不复杂。在处理实际的聚类问题时,个人认为谱聚类是应该首先考虑的几种算法之一。下面我们就对谱聚类的算法 阅读全文
posted @ 2016-12-29 11:11 刘建平Pinard 阅读(316113) 评论(298) 推荐(81) 编辑
摘要:在DBSCAN密度聚类算法中,我们对DBSCAN聚类算法的原理做了总结,本文就对如何用scikit-learn来学习DBSCAN聚类做一个总结,重点讲述参数的意义和需要调参的参数。 1. scikit-learn中的DBSCAN类 在scikit-learn中,DBSCAN算法类为sklearn.c 阅读全文
posted @ 2016-12-24 18:54 刘建平Pinard 阅读(123677) 评论(78) 推荐(14) 编辑
摘要:DBSCAN(Density-Based Spatial Clustering of Applications with Noise,具有噪声的基于密度的聚类方法)是一种很典型的密度聚类算法,和K-Means,BIRCH这些一般只适用于凸样本集的聚类相比,DBSCAN既可以适用于凸样本集,也可以适用 阅读全文
posted @ 2016-12-22 16:32 刘建平Pinard 阅读(247531) 评论(80) 推荐(37) 编辑
摘要:在BIRCH聚类算法原理中,我们对BIRCH聚类算法的原理做了总结,本文就对scikit-learn中BIRCH算法的使用做一个总结。 1. scikit-learn之BIRCH类 在scikit-learn中,BIRCH类实现了原理篇里讲到的基于特征树CF Tree的聚类。因此要使用BIRCH来聚 阅读全文
posted @ 2016-12-19 22:00 刘建平Pinard 阅读(25295) 评论(55) 推荐(5) 编辑
摘要:在K-Means聚类算法原理中,我们讲到了K-Means和Mini Batch K-Means的聚类原理。这里我们再来看看另外一种常见的聚类算法BIRCH。BIRCH算法比较适合于数据量大,类别数K也比较多的情况。它运行速度很快,只需要单遍扫描数据集就能进行聚类,当然需要用到一些技巧,下面我们就对B 阅读全文
posted @ 2016-12-14 17:13 刘建平Pinard 阅读(74060) 评论(74) 推荐(24) 编辑
摘要:在K-Means聚类算法原理中,我们对K-Means的原理做了总结,本文我们就来讨论用scikit-learn来学习K-Means聚类。重点讲述如何选择合适的k值。 1. K-Means类概述 在scikit-learn中,包括两个K-Means的算法,一个是传统的K-Means算法,对应的类是KM 阅读全文
posted @ 2016-12-13 15:50 刘建平Pinard 阅读(117689) 评论(73) 推荐(16) 编辑
摘要:K-Means算法是无监督的聚类算法,它实现起来比较简单,聚类效果也不错,因此应用很广泛。K-Means算法有大量的变体,本文就从最传统的K-Means算法讲起,在其基础上讲述K-Means的优化变体方法。包括初始化优化K-Means++, 距离计算优化elkan K-Means算法和大数据情况下的 阅读全文
posted @ 2016-12-12 16:57 刘建平Pinard 阅读(316456) 评论(79) 推荐(40) 编辑
摘要:在Bagging与随机森林算法原理小结中,我们对随机森林(Random Forest, 以下简称RF)的原理做了总结。本文就从实践的角度对RF做一个总结。重点讲述scikit-learn中RF的调参注意事项,以及和GBDT调参的异同点。 1. scikit-learn随机森林类库概述 在scikit 阅读全文
posted @ 2016-12-11 21:23 刘建平Pinard 阅读(160540) 评论(166) 推荐(34) 编辑
摘要:在集成学习原理小结中,我们讲到了集成学习有两个流派,一个是boosting派系,它的特点是各个弱学习器之间有依赖关系。另一种是bagging流派,它的特点是各个弱学习器之间没有依赖关系,可以并行拟合。本文就对集成学习中Bagging与随机森林算法做一个总结。 随机森林是集成学习中可以和梯度提升树GB 阅读全文
posted @ 2016-12-10 20:38 刘建平Pinard 阅读(135671) 评论(165) 推荐(35) 编辑
摘要:在梯度提升树(GBDT)原理小结中,我们对GBDT的原理做了总结,本文我们就从scikit-learn里GBDT的类库使用方法作一个总结,主要会关注调参中的一些要点。 1. scikit-learn GBDT类库概述 在sacikit-learn中,GradientBoostingClassifie 阅读全文
posted @ 2016-12-09 17:17 刘建平Pinard 阅读(128735) 评论(107) 推荐(26) 编辑
摘要:在集成学习之Adaboost算法原理小结中,我们对Boosting家族的Adaboost算法做了总结,本文就对Boosting家族中另一个重要的算法梯度提升树(Gradient Boosting Decison Tree, 以下简称GBDT)做一个总结。GBDT有很多简称,有GBT(Gradient 阅读全文
posted @ 2016-12-07 19:59 刘建平Pinard 阅读(333720) 评论(617) 推荐(67) 编辑
摘要:在集成学习之Adaboost算法原理小结中,我们对Adaboost的算法原理做了一个总结。这里我们就从实用的角度对scikit-learn中Adaboost类库的使用做一个小结,重点对调参的注意事项做一个总结。 1. Adaboost类库概述 scikit-learn中Adaboost类库比较直接, 阅读全文
posted @ 2016-12-06 19:41 刘建平Pinard 阅读(97760) 评论(117) 推荐(30) 编辑