影醉阏轩窗

衣带渐宽终不悔,为伊消得人憔悴。
扩大
缩小

随笔分类 - 机器学习

机器学习常用模块
摘要:注释 :基础不牢固,特别不牢固,项目无从下手! 这次花一个星期的时间把Python的基础库学习一下,一来总结过去的学习,二来为深度学习打基础。 部分太简单,或者映象很深的就不记录了,避免浪费时间。 博客园的makedown真是无语了,排版好久,上传就是这个鬼模样 [TOC] 1. python基础 阅读全文

posted @ 2018-06-04 01:56 影醉阏轩窗 阅读 (116) | 评论 (0) 编辑

《机器学习实战》PCA降维
摘要:注释:由于各方面原因,理论部分不做介绍,网上很多自行百度吧! pca.py main.py 对丢失的值进行替代: 阅读全文

posted @ 2018-03-08 13:49 影醉阏轩窗 阅读 (122) | 评论 (0) 编辑

傅立叶变换系列(五)快速傅立叶变换(FFT)
摘要:说明: 傅里叶级数、傅里叶变换、离散傅里叶变换、短时傅里叶变换。。。这些理解和应用都非常难,网上的文章有两个极端:“Esay” Or “Boring”!如果单独看一两篇文章就弄懂傅里叶,那说明你真的是大神了。 本博文是经过查阅网上几十篇大神的博客、文章、书籍等进行的一个汇总,希望对初学者和我自己一个 阅读全文

posted @ 2018-01-23 14:04 影醉阏轩窗 阅读 (204) | 评论 (0) 编辑

傅立叶变换系列(四)离散傅立叶变换
摘要:说明: 傅里叶级数、傅里叶变换、离散傅里叶变换、短时傅里叶变换。。。这些理解和应用都非常难,网上的文章有两个极端:“Esay” Or “Boring”!如果单独看一两篇文章就弄懂傅里叶,那说明你真的是大神了。 本博文是经过查阅网上几十篇大神的博客、文章、书籍等进行的一个汇总,希望对初学者和我自己一个 阅读全文

posted @ 2018-01-22 16:55 影醉阏轩窗 阅读 (501) | 评论 (0) 编辑

傅立叶变换系列(三)傅立叶变换
摘要:说明: 傅里叶级数、傅里叶变换、离散傅里叶变换、短时傅里叶变换。。。这些理解和应用都非常难,网上的文章有两个极端:“Esay” Or “Boring”!如果单独看一两篇文章就弄懂傅里叶,那说明你真的是大神了。 本博文是经过查阅网上几十篇大神的博客、文章、书籍等进行的一个汇总,希望对初学者和我自己一个 阅读全文

posted @ 2018-01-21 18:11 影醉阏轩窗 阅读 (704) | 评论 (0) 编辑

傅立叶变换系列(二)傅立叶级数
摘要:说明: 傅里叶级数、傅里叶变换、离散傅里叶变换、短时傅里叶变换。。。这些理解和应用都非常难,网上的文章有两个极端:“Esay” Or “Boring”!如果单独看一两篇文章就弄懂傅里叶,那说明你真的是大神了。 本博文是经过查阅网上几十篇大神的博客、文章、书籍等进行的一个汇总,希望对初学者和我自己一个 阅读全文

posted @ 2018-01-20 00:02 影醉阏轩窗 阅读 (688) | 评论 (0) 编辑

傅立叶变换系列(一)傅立叶系列的由来
摘要:说明: 傅里叶级数、傅里叶变换、离散傅里叶变换、短时傅里叶变换。。。这些理解和应用都非常难,网上的文章有两个极端:“Esay” Or “Boring”!如果单独看一两篇文章就弄懂傅里叶,那说明你真的是大神了。 本博文是经过查阅网上几十篇大神的博客、文章、书籍等进行的一个汇总,希望对初学者和我自己一个 阅读全文

posted @ 2018-01-19 17:47 影醉阏轩窗 阅读 (3275) | 评论 (0) 编辑

《机器学习实战》线性回归
摘要:一.最小平方差进行线性回归 比较简单,就是进行残差平方和最小来进行,其中这里的差为全局最优,相当于全局梯度下降法。 也可以参考之前写的博文:http://www.cnblogs.com/wjy-lulu/p/7759515.html logist.py main.py 二.局部加权线性回归 理论部分 阅读全文

posted @ 2018-01-13 21:38 影醉阏轩窗 阅读 (50) | 评论 (0) 编辑

《机器学习实战》AdaBoost算法(手稿+代码)
摘要:一.Adaboost理论部分 1.1 adaboost运行过程 注释:算法是利用指数函数降低误差,运行过程通过迭代进行。其中函数的算法怎么来的,你不用知道!当然你也可以尝试使用其它的函数代替指数函数,看看效果如何。 1.2 举例说明算法流程 略,花几分钟就可以看懂的例子。见:《统计学习方法》李航大大 阅读全文

posted @ 2017-12-22 19:01 影醉阏轩窗 阅读 (108) | 评论 (0) 编辑

《机器学习实战》支持向量机(手稿+代码)
摘要:注释:已经看过有半年了,而且当时只是看了理论和opencv的函数调用,现在忘的九霄云外了,Ng的视频也没看SVM,现在准备系统的再学一遍吧。 之前记录的博客:http://www.cnblogs.com/wjy-lulu/p/6979436.html 一.SVM理论重点和难点剖析 注释:这里主要讲解 阅读全文

posted @ 2017-12-04 17:03 影醉阏轩窗 阅读 (132) | 评论 (0) 编辑

《机器学习实战》Logistic回归
摘要:注释:Ng的视频有完整的推到步骤,不过理论和实践还是有很大差别的,代码实现还得完成 1.Logistic回归理论 http://www.cnblogs.com/wjy-lulu/p/7759515.html,Ng的推导很完美,看懂就可以了,没必要自己推导一遍,因为几天不用就忘记 了。 2.代码实现 阅读全文

posted @ 2017-12-03 23:12 影醉阏轩窗 阅读 (73) | 评论 (0) 编辑

《机器学习实战》朴素贝叶斯
摘要:1.朴素贝叶斯理论 注释:斯坦福大学课程有朴素贝叶斯,之前也看过相关文献,现在学起来比较省力。 http://www.cnblogs.com/wjy-lulu/p/7770450.html 理论部分直接看上面我之前写的博文就可以啦,如果没有点基础直接写代码有点麻烦! 2.代码实现 2.1构造特征向量 阅读全文

posted @ 2017-11-28 21:28 影醉阏轩窗 阅读 (83) | 评论 (0) 编辑

《机器学习实战》ID3算法实现
摘要:注释:之前从未接触过决策树,直接上手对着书看源码,有点难,确实有点难~~ 本代码是基于ID3编写,之后的ID4.5和CART等还没学习到 一.决策树的原理 没有看网上原理,直接看源码懂得原理,下面是我一个抛砖引玉的例子: 太丑了,在Linux下面操作实在不习惯,用的Kolourpqint画板也不好用 阅读全文

posted @ 2017-11-22 22:46 影醉阏轩窗 阅读 (109) | 评论 (0) 编辑

《机器学习实战》KNN算法实现
摘要:本系列都是参考《机器学习实战》这本书,只对学习过程一个记录,不做详细的描述! 注释:看了一段时间Ng的机器学习视频,感觉不能光看不练,现在一边练习再一边去学习理论! KNN很早就之前就看过也记录过,在此不做更多说明,这是k-means之前的记录,感觉差不多:http://www.cnblogs.co 阅读全文

posted @ 2017-11-17 20:07 影醉阏轩窗 阅读 (263) | 评论 (0) 编辑

StanFord ML 笔记 第十部分
摘要:第十部分: 1.PCA降维 2.LDA 注释:一直看理论感觉坚持不了,现在进行《机器学习实战》的边写代码边看理论 阅读全文

posted @ 2017-11-11 14:15 影醉阏轩窗 阅读 (39) | 评论 (0) 编辑

StanFord ML 笔记 第九部分
摘要:第九部分: 1.高斯混合模型 2.EM算法的认知 1.高斯混合模型 之前博文已经说明:http://www.cnblogs.com/wjy-lulu/p/7009038.html 2.EM算法的认知 2.1理论知识之前已经说明:http://www.cnblogs.com/wjy-lulu/p/70 阅读全文

posted @ 2017-11-10 16:31 影醉阏轩窗 阅读 (100) | 评论 (0) 编辑

StanFord ML 笔记 第八部分
摘要:第八部分内容: 1.正则化Regularization 2.在线学习(Online Learning) 3.ML 经验 1.正则化Regularization 1.1通俗解释 引用知乎作者:刑无刀 解释之前,先说明这样做的目的:如果一个模型我们只打算对现有数据用一次就不再用了,那么正则化没必要了,因 阅读全文

posted @ 2017-11-04 01:38 影醉阏轩窗 阅读 (64) | 评论 (0) 编辑

StanFord ML 笔记 第六部分&&第七部分
摘要:第六部分内容: 1.偏差/方差(Bias/variance) 2.经验风险最小化(Empirical Risk Minization,ERM) 3.联合界(Union bound) 4.一致收敛(Uniform Convergence) 第七部分内容: 1. VC 维 2.模型选择(Model Se 阅读全文

posted @ 2017-11-03 21:36 影醉阏轩窗 阅读 (61) | 评论 (0) 编辑

StanFord ML 笔记 第五部分
摘要:1.朴素贝叶斯的多项式事件模型: 趁热打铁,直接看图理解模型的意思:具体求解可见下面大神给的例子,我这个是流程图。 在上篇笔记中,那个最基本的NB模型被称为多元伯努利事件模型(Multivariate Bernoulli Event Model,以下简称 NB-MBEM)。该模型有多种扩展,一种是在 阅读全文

posted @ 2017-11-02 04:30 影醉阏轩窗 阅读 (82) | 评论 (0) 编辑

StanFord ML 笔记 第四部分
摘要:第四部分: 1.生成学习法 generate learning algorithm 2.高斯判别分析 Gaussian Discriminant Analysis 3.朴素贝叶斯 Navie Bayes 4.拉普拉斯平滑 Navie Bayes 一、生成学习法generate learning al 阅读全文

posted @ 2017-11-01 12:59 影醉阏轩窗 阅读 (66) | 评论 (0) 编辑

StanFord ML 笔记 第三部分
摘要:第三部分: 1.指数分布族 2.高斯分布 >>>最小二乘法 3.泊松分布 >>>线性回归 4.Softmax回归 指数分布族: 结合Ng的课程,在看这篇博文:http://blog.csdn.net/acdreamers/article/details/44663091 泊松分布: 这里是一个扩展, 阅读全文

posted @ 2017-11-01 01:02 影醉阏轩窗 阅读 (46) | 评论 (0) 编辑

StanFord ML 笔记 第二部分
摘要:本章内容: 1.逻辑分类与回归 sigmoid函数概率证明 >>>回归 2.感知机的学习策略 3.牛顿法优化 4.Hessian矩阵 牛顿法优化求解: 这个我就不记录了,看到一个非常完美的说明+演示+实际操作:http://www.matongxue.com/madocs/205.html#/mad 阅读全文

posted @ 2017-10-31 19:11 影醉阏轩窗 阅读 (56) | 评论 (0) 编辑

StanFord ML 笔记 第一部分
摘要:本章节内容: 1.学习的种类及举例 2.线性回归,拟合一次函数 3.线性回归的方法: A.梯度下降法 >>>批量梯度下降、随机梯度下降 B.局部线性回归 C.用概率证明损失函数(极大似然函数) 监督学习:有实际的输入和输出,给出标准答案做参照。比如:回归的运算,下面有例子。 非监督学习:内有标准答案 阅读全文

posted @ 2017-10-31 01:42 影醉阏轩窗 阅读 (192) | 评论 (0) 编辑

级联分类器的使用
摘要:注意: 1.调用USB的摄像头,首先禁止自己笔记本或者台式机的自带摄像头,然后重新启动。 2.opencv自带的训练文件最好复制放在到源目录下,我试了直接在安装文件中读取不行,可能是我读取有问题吧! 3.没有我们想的那么高大上,就是通过一个特征检测去训练数据而已,用起来很简单,但是深层次理解又很难。 阅读全文

posted @ 2017-07-12 10:25 影醉阏轩窗 阅读 (405) | 评论 (0) 编辑

高斯混合模型(理论+opencv实现)
摘要:查资料的时候看了一个不文明的事情,转载别人的东西而不标注出处,结果原创无人知晓,转载很多人评论~~标注了转载而不说出处这样的人有点可耻! 写在前面: Gaussian Mixture Model (GMM)。事实上,GMM 和 k-means 很像,不过 GMM 是学习出一些概率密度函数来(所以 G 阅读全文

posted @ 2017-06-14 15:18 影醉阏轩窗 阅读 (7579) | 评论 (0) 编辑

K-means算法(理论+opencv实现)
摘要:写在前面:之前想分类图像的时候有看过k-means算法,当时一知半解的去使用,不懂原理不懂使用规则。。。显然最后失败了,然后看了《机器学习》这本书对k-means算法有了理论的认识,现在通过贾志刚老师的视频有了实际应用的理解。 k-means算法原理 注:还是和之前一样,核心都是别人的,我只是知识的 阅读全文

posted @ 2017-06-13 17:59 影醉阏轩窗 阅读 (411) | 评论 (0) 编辑

支持向量机(理论+opencv实现)
摘要:从基础开始讲起,没有这些东西看支持向量机真的很难! 1.拉格朗日乘子(Lagrangemultiplier) 假设需要求极值的目标函数(objectivefunction)为f(x,y),限制条件为φ(x,y)=M 设 定义一个新函数 则用偏导数方法列出方程: 、 、 求出x,y,λ的值,代入即可得 阅读全文

posted @ 2017-06-10 17:56 影醉阏轩窗 阅读 (366) | 评论 (0) 编辑

神经网络从基础到改进+源程序
摘要:神经网络初步学习总结:(对神经网络的模型有一定的了解,如果从未接触有点看不懂) 第一点:以下是最简单的神经网络模型了 x: 输入参数 a0: 输入偏置 a1: 输入权重 b0: 隐藏层偏置 b1: 隐藏层输入权重 y: 隐藏层输入参数(经过激励函数的输出,下面会讲解激励函数) Z: 隐藏层输出(经过 阅读全文

posted @ 2017-03-14 11:17 影醉阏轩窗 阅读 (1205) | 评论 (0) 编辑

BP神经网络的公式推导
摘要:如果感觉自己看不懂,那就看看我博客的梯度下降法,博文最后的感知机也算最简单的BP神经网络吧,用的也是反馈(w,b):典型梯度下降法 BP网络的结构 BP网络的结构如下图所示,分为输入层(Input),隐含层(Hidden),输出层(Output)。 输入层的结点个数取决于输入的特征个数。 输出层的结 阅读全文

posted @ 2017-03-06 19:54 影醉阏轩窗 阅读 (4942) | 评论 (1) 编辑

典型梯度下降法
摘要:这几天在看《统计学习方法》这本书,发现 梯度下降法 在 感知机 等机器学习算法中有很重要的应用,所以就特别查了些资料。 一.介绍 梯度下降法(gradient descent)是求解无约束最优化问题的一种常用方法,有实现简单的优点。梯度下降法是迭代算法,每一步需要求解目标函数的梯度向量。 二.应用场 阅读全文

posted @ 2017-03-03 22:31 影醉阏轩窗 阅读 (584) | 评论 (1) 编辑

经典最小二乘法
摘要:转载自:http://www.cnblogs.com/iamccme/archive/2013/05/15/3080737.html 参考: http://blog.csdn.net/qll125596718/article/details/8248249 一.背景 5月9号到北大去听hulu的讲座 阅读全文

posted @ 2017-03-03 21:05 影醉阏轩窗 阅读 (181) | 评论 (0) 编辑

导航

/* 线条鼠标集合 */ /* 鼠标点击求赞文字特效 */ //带头像评论