摘要:
(一)K-means 提到k-means不得不说的许高建老师,他似乎比较偏爱使用这种聚类方法,在N个不同场合听到他提起过,k-means通过设置重心和移动中心两个简答的步骤,就实现了数据的聚类。下面就来介绍下k-means算法。 一、 数值属性距离度量 度量数值属性相似度最简单的方法就是计算不同数值 阅读全文
posted @ 2017-03-02 15:49
7岁
阅读(512)
评论(0)
推荐(0)
摘要:
提升方法包含两大思想:Bagging和Boosting Bagging 和 Boosting 都是一种将几个弱分类器(可以理解为分类或者回归能力不好的分类器)按照一定规则组合在一起从而变成一个强分类器。但二者的组合方式有所区别。 一、Bagging Bagging的思想很简单,我选取一堆弱分类器用于 阅读全文
posted @ 2017-03-02 15:37
7岁
阅读(489)
评论(0)
推荐(0)
摘要:
3.1、摘要 在这一篇文章中,将讨论一种被广泛使用的分类算法——决策树(decision tree)。决策树的优势在于构造过程不需要任何领域知识或参数设置,因此在实际应用中,对于探测式的知识发现,决策树更加适用。 3.2、决策树引导 通俗来说,决策树分类的思想类似于找对象。现想象一个女孩的母亲要给这 阅读全文
posted @ 2017-03-02 15:23
7岁
阅读(427)
评论(0)
推荐(0)
摘要:
1判别模型与生成模型 上篇报告中提到的回归模型是判别模型,也就是根据特征值来求结果的概率。形式化表示为,在参数确定的情况下,求解条件概率。通俗的解释为在给定特征后预测结果出现的概率。 比如说要确定一只羊是山羊还是绵羊,用判别模型的方法是先从历史数据中学习到模型,然后通过提取这只羊的特征来预测出这只羊 阅读全文
posted @ 2017-03-02 15:03
7岁
阅读(7942)
评论(0)
推荐(0)
摘要:
在本节中,我们介绍Softmax回归模型,该模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标签 可以取两个以上的值。 Softmax回归模型对于诸如MNIST手写数字分类等问题是很有用的,该问题的目的是辨识10个不同的单个数字。Softmax回归是有监督的,不过后面也会介绍它 阅读全文
posted @ 2017-03-02 14:59
7岁
阅读(1124)
评论(0)
推荐(0)
摘要:
SVM处理二分类 支持向量机基本上是最好的有监督学习算法了。最开始接触SVM是去年暑假的时候,老师要求交《统计学习理论》的报告,那时去网上下了一份入门教程,里面讲的很通俗,当时只是大致了解了一些相关概念。这次斯坦福提供的学习材料,让我重新学习了一些SVM知识。我看很多正统的讲法都是从VC 维理论和结 阅读全文
posted @ 2017-03-02 10:48
7岁
阅读(646)
评论(0)
推荐(0)
摘要:
online learning 原题目叫做The perception and large margin classifiers,其实探讨的是在线学习。这里将题目换了换。以前讨论的都是批量学习(batch learning),就是给了一堆样例后,在样例上学习出假设函数h。而在线学习就是要根据新来的样 阅读全文
posted @ 2017-03-02 10:38
7岁
阅读(2096)
评论(0)
推荐(0)
摘要:
第一部分: 这篇讨论使用期望最大化算法(Expectation-Maximization)来进行密度估计(density estimation)。 与k-means一样,给定的训练样本是,我们将隐含类别标签用表示。与k-means的硬指定不同,我们首先认为是满足一定的概率分布的,这里我们认为满足多项 阅读全文
posted @ 2017-03-02 10:22
7岁
阅读(5156)
评论(0)
推荐(0)

浙公网安备 33010602011771号