摘要: PCA和LDA都是经典的降维算法。PCA是无监督的,也就是训练样本不需要标签;LDA是有监督的,也就是训练样本需要标签。PCA是去除掉原始数据中冗余的维度,而LDA是寻找一个维度,使得原始数据在该维度上投影后不同类别的数据尽可能分离开来。 PCA PCA是一种正交投影,它的思想是使得原始数据在投影子 阅读全文
posted @ 2018-08-10 22:31 wumh7 阅读(10861) 评论(0) 推荐(0) 编辑
摘要: 什么是激活函数 激活函数是一个几乎处处可微的函数,在神经网络中,它的作用是给神经网络添加一些非线性因素,从而使得神经网络能够解决一些更加复杂的问题。 在某些情况下,数据是线性可分的,如下图所示: 图片来源于网络 而在另外一些情况下,数据是线性不可分的,如下图所示: 图片来源于网络 这个时候,我们就需 阅读全文
posted @ 2018-08-10 16:04 wumh7 阅读(531) 评论(0) 推荐(0) 编辑
摘要: 山本耀司: 我从不相信什么懒洋洋的自由,我向往的自由是通过勤奋和努力实现更广阔的人生,那样的自由才是珍贵的、有价值的。我相信一万小时定律,我从来不相信天上掉馅饼的灵感和坐等的成就。做一个自由又自律的人,靠势必实现的决心认真地活着。 阅读全文
posted @ 2018-08-10 15:33 wumh7 阅读(114) 评论(0) 推荐(0) 编辑
摘要: 支持向量机(support vector machine, svm)在小样本、非线性、高维模式识别问题中有很多优势,并且能够方便地扩展到函数拟合等其他机器学习问题中。 1. svm思想 1. 将低维空间中线性不可分的数据通过kernel trick映射到高维空间中,使得数据变得线性可分,从而实现分类 阅读全文
posted @ 2018-08-10 10:42 wumh7 阅读(1508) 评论(0) 推荐(0) 编辑
摘要: k近邻算法(knn)是一种基本的分类与回归的算法,k means是一种基本的聚类方法。 k近邻算法(knn) 基本思路:如果一个样本在特征空间的k个最相似(即特征空间最邻近)的样本大多数属于某一类,则该样本也属于这一类。 影响因素: 1. k值的选择。k的值小,则近似误差小,估计误差大;k的值大,则 阅读全文
posted @ 2018-08-10 07:20 wumh7 阅读(4134) 评论(0) 推荐(1) 编辑