摘要:主要内容: 一、感知机模型 二、感知机学习策略(线性可分) 三、感知机学习算法 (疑问:对偶形式比原始形式更优吗?但为何从”判断误分类点“这一步骤对比,对偶形式的时间复杂度似乎更高呢?) 一、感知机模型 1.所谓感知机,其实就是一个在n维空间内的超平面(n-1维),这个超平面将整个空间分为两部分。
阅读全文
摘要:(注:由于之前进行了吴恩达机器学习课程的学习,其中有部分内容与机器学习基石的内容重叠,所以以下该系列的笔记只记录新的知识) 《机器学习基石》课程围绕着下面这四个问题而展开: 主要内容: 一、什么时候适合用机器学习? 二、该课程所采用的一套符号表示 三、机器学习的流程 四、感知机算法 五、学习的类型
阅读全文
摘要:主要内容: 一.bagging、boosting集成学习 二.随机森林 一.bagging、boosting集成学习 1.bagging: 从原始样本集中独立地进行k轮抽取,生成训练集。每轮从原始样本集中使用Bootstraping方法抽取(即又放回地抽取)n个样本点(样本集与训练集的大小同为n。在
阅读全文
摘要:一.加载数据: 然后看一下有多少个特征和类别以及它们的名字: 二.数据可视化:: 由于该套数据集有4个特征,所以只能选取2个特征进行显示。 可见红色和绿色的点混在一起,所以再选择其他特征作为坐标轴: 这样就可以区别这三种类别了。 补充:还可以用三维视图: 三.训练分类器: 四.进行预测: 五.规范化
阅读全文
摘要:相关博客: 吴恩达机器学习笔记(八) —— 降维与主成分分析法(PCA) 《机器学习实战》学习笔记第十三章 —— 利用PCA来简化数据 奇异值分解(SVD)原理与在降维中的应用 机器学习(29)之奇异值分解SVD原理与应用详解 主要内容: 一.SVD简介 二.U、∑、VT三个矩阵的求解 三.U、∑、
阅读全文
摘要:主要内容: 一. FP-growth算法简介 二.构建FP树 三.从一颗FP树中挖掘频繁项集 一. FP-growth算法简介 1.上次提到可以用Apriori算法来提取频繁项集,但是Apriori算法有个致命的缺点,那就是它对每个潜在的频繁项集都需要扫描数据集判定其是否频繁,因而在时间消耗上是巨大
阅读全文
摘要:主要内容: 一.关联分析 二.Apriori原理 三.使用Apriori算法生成频繁项集 四.从频繁项集中生成关联规则 一.关联分析 1.关联分析是一种在大规模数据集中寻找有趣关系的任务。这些关系可以有两种形式:频繁项集和关联规则。 2.频繁项集是经常出现在一起的元素的集合。 3.关联规则暗示两个元
阅读全文
摘要:相关博文: 《机器学习实战》学习笔记第三章 —— 决策树 主要内容: 一.CART算法简介 二.分类树 三.回归树 四.构建回归树 五.回归树的剪枝 六.模型树 七.树回归与标准回归的比较 一.CART算法简介 1.对于上一篇博客所介绍的决策树,其使用的算法是ID3算法或者是C4.5算法,他们都是根
阅读全文
摘要:相关笔记: 吴恩达机器学习笔记(一) —— 线性回归 吴恩达机器学习笔记(三) —— Regularization正则化 ( 问题遗留: 小可只知道引入正则项能降低参数的取值,但为什么能保证 Σθ2 <=λ ? ) 主要内容: 一.线性回归之普通最小二乘法 二.局部加权线性回归 三.岭回归(L2正则
阅读全文
摘要:相关博文: 吴恩达机器学习笔记(八) —— 降维与主成分分析法(PCA) 主成分分析(PCA)的推导与解释 (特征值、特征向量与PCA的关系) 主要内容: 一.向量內积的几何意义 二.基的变换 三.协方差矩阵 四.PCA求解 一.向量內积的几何意义 1.假设A、B为二维平面xoy内两个向量,A为(x
阅读全文
摘要:主要内容: 一.提升方法与AdaBoost算法的简介 二.AdaBoost算法 三.代码解释 一.提升方法与AdaBoost算法的简介 1.提升方法:从弱学习算法出发,反复学习,得到一系列弱分类器(又称为基本分类器),然后组合这些弱分类器,构成一个强分类器。大多数的提升方法都是改变训练数据的概率分布
阅读全文
摘要:一.有关笔记: 1..吴恩达机器学习笔记(二) —— Logistic回归 2.吴恩达机器学习笔记(十一) —— Large Scale Machine Learning 二.Python源码(不带正则项): 三.Batch gradient descent、Stochastic gradient
阅读全文
摘要:主要内容: 一.贝叶斯公式与朴素贝叶斯法 二.先验概率与后验概率 三.极大似然估计与贝叶斯估计 四.利用朴素贝叶斯进行文档分类 五.利用朴素贝叶斯进行垃圾邮件过滤 六.补充 一.贝叶斯公式与朴素贝叶斯法 1.贝叶斯公式 2.朴素贝叶斯:假定所有变量X都相互独立(条件独立性),那么上式中的P(X|Y)
阅读全文
摘要:(这两个算法似乎都需要y是离散的,而CART算法y是离散或者连续都可以,对应不同的评价标准) 主要内容: 一.决策树模型 二.信息与熵 三.信息增益与ID3算法 四.信息增益比与C4.5算法 五.决策树的剪枝 一.决策树模型 1.所谓决策树,就是根据实例的特征对实例进行划分的树形结构。其中有两种节点
阅读全文
摘要:主要内容: 一.算法概述 二.距离度量 三.k值的选择 四.分类决策规则 五.利用KNN对约会对象进行分类 六.利用KNN构建手写识别系统 七.KNN之线性扫描法的不足 八.KD树 一.算法概述 1.k近邻算法,简而言之,就是选取k个与输入点的特征距离最近的数据点中出现最多的一种分类,作为输入点的类
阅读全文
摘要:主要内容: 一.Photo OCR 二.Getting lots of data:artificial data synthesis 三.Ceiling analysis 一.Photo OCR Photo OCR就是从图片中提取文本或者需要的数据,其具体步骤可分三个: 第一步:Text detec
阅读全文
摘要:主要内容: 一.Batch gradient descent 二.Stochastic gradient descent 三.Mini-batch gradient descent 四.Online learning 五.Map-reduce and data parallelism 一.Batch
阅读全文
摘要:主要内容: 一.推荐系统简介 二.Content-based recommendations 三.Collaborative filtering algorithm 四.预测结果向量化 五.mean normalization 一.推荐系统简介 推荐系统,即利用已有的数据,从中提取出可能有用的特征,
阅读全文
摘要:主要内容: 一.模型介绍 二.算法过程 三.算法性能评估及ε(threshold)的选择 四.Anomaly detection vs Supervised learning 五.Multivariate Gaussian 一.模型介绍 如何检测一个成品是否异常? 假设红交叉表示正常的样本点,如果抽
阅读全文
摘要:主要内容: 一.降维与PCA 二.PCA算法过程 三.PCA之恢复 四.如何选取维数K 五.PCA的作用与适用场合 一.降维与PCA 1.所谓降维,就是将数据由原来的n个特征(feature)缩减为k个特征(可能从n个中直接选取k个,也能根据这n个重新组合成k个)。可起到数据压缩的作用(因而也就存在
阅读全文