会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Curry秀
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
下一页
2019年12月8日
聚类-衡量指标
摘要: 均一性:一个簇只包含了一个类别的样本,则满足均一性 完整性:同类别的样本被归类到相同的簇中,则满足完整性 若使得聚类的簇一直减小,直到剩下一个簇,那么这个聚类的完整性是最好的,但是,均一性是最差的。 同理,若n个样本被分为了n个簇,那么这个聚类的均一性一定是最好的,但是完整性确是最差的. 这两个是相
阅读全文
posted @ 2019-12-08 19:02 程序界第一佳丽
阅读(997)
评论(0)
推荐(0)
2019年12月4日
聚类-分层聚类
摘要: 1.分层聚类的介绍 分层聚类法(hierarchical cluster method)一译“系统聚类法”。聚类分析的一种方法。其做法是开始时把每个样品作为一类,然后把最靠近的样品(即距离最小的群品)首先聚为小类,再将已聚合的小类按其类间距离再合并,不断继续下去,最后把一切子类都聚合到一个大类。 一
阅读全文
posted @ 2019-12-04 20:59 程序界第一佳丽
阅读(12958)
评论(0)
推荐(0)
聚类-DBSCAN基于密度的空间聚类
摘要: 1.DBSCAN介绍 密度聚类方法的指导思想是,只要样本点的密度大于某阈值,则将该样本添加到最近的簇中。 这类算法能克服基于距离的算法只能发现“类圆形”的聚类的缺点,可发现任意形状的聚类,且对噪声数据不敏感。但计算密度单元的计算复杂度大,需要建立空间索引来降低计算量。 DBSCAN 密度最大值算法
阅读全文
posted @ 2019-12-04 19:55 程序界第一佳丽
阅读(3783)
评论(0)
推荐(0)
聚类-K-Means
摘要: 1.什么是K-Means? K均值算法聚类 关键词:K个种子,均值聚类的概念:一种无监督的学习,事先不知道类别,自动将相似的对象归到同一个簇中 K-Means算法是一种聚类分析(cluster analysis)的算法,其主要是来计算数据聚集的算法,主要通过不断地取离种子点最近均值的算法. K-Me
阅读全文
posted @ 2019-12-04 09:03 程序界第一佳丽
阅读(2500)
评论(0)
推荐(0)
2019年12月3日
数据降维-NMF非负矩阵分解
摘要: 1.什么是非负矩阵分解? NMF的基本思想可以简单描述为:对于任意给定的一个非负矩阵V,NMF算法能够寻找到一个非负矩阵W和一个非负矩阵H,使得满足 ,从而将一个非负的矩阵分解为左右两个非负矩阵的乘积。如下图所示,其中要求分解后的矩阵H和W都必须是非负矩阵。 分解前后可理解为:原始矩阵的列向量是对左
阅读全文
posted @ 2019-12-03 21:33 程序界第一佳丽
阅读(1827)
评论(0)
推荐(0)
数据降维-LDA线性降维
摘要: 1.什么是LDA? LDA线性判别分析也是一种经典的降维方法,LDA是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的。这点和PCA不同。PCA是不考虑样本类别输出的无监督降维技术。LDA的思想可以用一句话概括,就是“*投影后类内方差最小,类间方差最大*”。 什么意思呢? 我们要将
阅读全文
posted @ 2019-12-03 21:05 程序界第一佳丽
阅读(1628)
评论(0)
推荐(0)
数据降维-PCA主成分分析
摘要: 1.什么是PCA? PCA(Principal Component Analysis),即主成分分析方法,是一种使用最广泛的数据降维算法。PCA的主要思想是将n维特征映射到k维上,这k维是全新的正交特征也被称为主成分,是在原有n维特征的基础上重新构造出来的k维特征。PCA的工作就是从原始的空间中顺序
阅读全文
posted @ 2019-12-03 20:30 程序界第一佳丽
阅读(2091)
评论(0)
推荐(0)
数据降维-特征选择
摘要: 1.为什么要进行数据降维? 在实际的机器学习项目中,特征选择/降维是必须进行的,因为在数据中存在以下几个方面的问题: 数据的多重共线性:特征属性之间存在着相互关联关系。多重共线性会导致解的空间不稳定, 从而导致模型的泛化能力弱; 高纬空间样本具有稀疏性,导致模型比较难找到数据特征; 过多的变量会妨碍
阅读全文
posted @ 2019-12-03 19:31 程序界第一佳丽
阅读(1043)
评论(0)
推荐(0)
2019年11月30日
随机森林的原理以及使用(集成算法)
摘要: 1.什么是随机森林? 随机森林其实就是多棵决策树. 通过对样本重新采样的方法得到不同的训练样本集,在这些新的训练样本集上分别训练学习器,最终合并每一个学习器的结果,作为最终的学习结果,其中,每个样本的权重是一样的.具体过程如下: 在该 方法中,b个学习器之间彼此是相互独立的,这样的特点使该方法更容易
阅读全文
posted @ 2019-11-30 15:37 程序界第一佳丽
阅读(3535)
评论(1)
推荐(0)
决策树的原理以及使用
摘要: 1.什么是决策树 决策树是一种解决分类问题的算法。 决策树采用树形结构,使用层层推理来实现最终的分类。 决策树由下边几种元素组成: 根节点:包含样本的全集 内部节点:对应特征属性测试 叶节点:代表决策的结果 预测时,在树的内部节点处用某一属性值进行判断,根据判断结果决定进入哪个分支节点,直到到达叶节
阅读全文
posted @ 2019-11-30 15:07 程序界第一佳丽
阅读(2892)
评论(0)
推荐(0)
上一页
1
2
3
4
下一页
公告