随笔分类 -  机器学习实战

读书笔记
摘要:拓扑排序的意思: 对一个有向无环图(Directed Acyclic Graph简称DAG)G进行拓扑排序,是将G中所有顶点排成一个线性序列,使得图中任意一对顶点u和v,若边(u,v)∈E(G),则u在线性序列中出现在v之前。通常,这样的线性序列称为满足拓扑次序(Topological Order) 阅读全文
posted @ 2017-03-21 23:16 罐装可乐 阅读(1534) 评论(0) 推荐(0)
摘要:1、聚类是一种无监督学习,他讲相似的对象放到同一簇下,有点像自动分类。聚类方法几乎可以用到任何对象上,簇内的对象越相似,聚类结果就越好。 2、K均值聚类的优点 算法简单容易实现 缺点: 可能收敛到局部最小值,在大规模数据上收敛速度较慢 3、K-均值算法算法流程以及伪代码 首先随机选择k个初始点作为质 阅读全文
posted @ 2017-03-16 22:51 罐装可乐 阅读(940) 评论(0) 推荐(0)
摘要:一下内容转载自:https://zh.wikipedia.org/wiki/ROC%E6%9B%B2%E7%BA%BF ROC(Receiver Operating Characteristic)曲线和AUC常被用来评价一个二值分类器(binary classifier)的优劣。 1) ROC曲线 阅读全文
posted @ 2017-03-09 22:37 罐装可乐 阅读(3417) 评论(0) 推荐(0)
摘要:以下内容摘选自http://www.cnblogs.com/leoo2sk/archive/2010/09/19/decision-tree.html 1、决策数的定义 决策树(decision tree)是一个树结构(可以是二叉树或非二叉树)。其每个非叶节点表示一个特征属性上的测试,每个分支代表这 阅读全文
posted @ 2017-03-01 15:43 罐装可乐 阅读(513) 评论(0) 推荐(0)
摘要:1、主要内容 2、梯度下降 (1)、批量梯度下降 2、随机梯度下降 区别:就是更新变量时使用全部的数据还是一个样本进行更新 当都是凸函数的两者鲜果相同,当使用神经网络时使用SGD可以跳出局部最优解,批量梯度下降则不行; 3、mini-batch 梯度下降 噪声随着样本数量的增加而减少; 3、正则 b 阅读全文
posted @ 2017-02-19 11:36 罐装可乐 阅读(1475) 评论(0) 推荐(0)
摘要:1、主要内容 硬间隔表示实例中的每个点都必须被正确分开, 这样在保证每个点都被正确分开后会造成一个问题就是过拟合的出现,为了解决过拟合问题,引入软间隔的支持向量机,允许少部分的点出错。上节课中讲了kernel技巧,就是将内积和特征转换这两步合成一个步骤来做,移除计算过程中对特征数量d的依赖: 2、软 阅读全文
posted @ 2017-02-15 20:55 罐装可乐 阅读(665) 评论(0) 推荐(0)