摘要: 主成分分析(Principal Component Analysis,简称PCA)是最常用过的一种降维方法 在引入PCA之前先提到了如何使用一个超平面对所有的样本进行恰当的表达? 即若存在这样的超平面,那么它大概应具有这样的性质: 最大可分性:样本点在这个超平面的投影尽可能分开。 最近重构性:样本点 阅读全文
posted @ 2018-09-25 20:27 哗啦啦的哈 阅读(333) 评论(0) 推荐(0) 编辑
摘要: 线性判别分析(Linear Discriminant Analysis,简称LDA)是一种经典的线性学习方法。其思想非常朴素,设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近,异类的样例的投影点尽可能的远离,在对新样本进行分类时,将其投影到同样的这条直线上,再根据投影点的位置来确定样本的类 阅读全文
posted @ 2018-09-25 19:27 哗啦啦的哈 阅读(239) 评论(0) 推荐(0) 编辑
摘要: 关于统计学习方法中李航SVM学习笔记: 支持向量机(support vector machines,SVM)是一种二类分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;关于感知机的介绍有时间再做。 关于支持向量机中的内容比较多,本文关于李航统计学习中关于支持向 阅读全文
posted @ 2018-09-25 11:20 哗啦啦的哈 阅读(346) 评论(0) 推荐(0) 编辑