影醉阏轩窗

衣带渐宽终不悔,为伊消得人憔悴。
扩大
缩小

随笔分类 -  机器学习

StanFord ML 笔记 第三部分
摘要:第三部分: 1.指数分布族 2.高斯分布 >>>最小二乘法 3.泊松分布 >>>线性回归 4.Softmax回归 指数分布族: 结合Ng的课程,在看这篇博文:http://blog.csdn.net/acdreamers/article/details/44663091 泊松分布: 这里是一个扩展, 阅读全文

posted @ 2017-11-01 01:02 影醉阏轩窗 阅读(197) 评论(0) 推荐(0) 编辑

StanFord ML 笔记 第二部分
摘要:本章内容: 1.逻辑分类与回归 sigmoid函数概率证明 >>>回归 2.感知机的学习策略 3.牛顿法优化 4.Hessian矩阵 牛顿法优化求解: 这个我就不记录了,看到一个非常完美的说明+演示+实际操作:http://www.matongxue.com/madocs/205.html#/mad 阅读全文

posted @ 2017-10-31 19:11 影醉阏轩窗 阅读(195) 评论(0) 推荐(0) 编辑

StanFord ML 笔记 第一部分
摘要:本章节内容: 1.学习的种类及举例 2.线性回归,拟合一次函数 3.线性回归的方法: A.梯度下降法 >>>批量梯度下降、随机梯度下降 B.局部线性回归 C.用概率证明损失函数(极大似然函数) 监督学习:有实际的输入和输出,给出标准答案做参照。比如:回归的运算,下面有例子。 非监督学习:内有标准答案 阅读全文

posted @ 2017-10-31 01:42 影醉阏轩窗 阅读(417) 评论(0) 推荐(0) 编辑

级联分类器的使用
摘要:注意: 1.调用USB的摄像头,首先禁止自己笔记本或者台式机的自带摄像头,然后重新启动。 2.opencv自带的训练文件最好复制放在到源目录下,我试了直接在安装文件中读取不行,可能是我读取有问题吧! 3.没有我们想的那么高大上,就是通过一个特征检测去训练数据而已,用起来很简单,但是深层次理解又很难。 阅读全文

posted @ 2017-07-12 10:25 影醉阏轩窗 阅读(810) 评论(0) 推荐(0) 编辑

高斯混合模型(理论+opencv实现)
摘要:查资料的时候看了一个不文明的事情,转载别人的东西而不标注出处,结果原创无人知晓,转载很多人评论~~标注了转载而不说出处这样的人有点可耻! 写在前面: Gaussian Mixture Model (GMM)。事实上,GMM 和 k-means 很像,不过 GMM 是学习出一些概率密度函数来(所以 G 阅读全文

posted @ 2017-06-14 15:18 影醉阏轩窗 阅读(11806) 评论(0) 推荐(7) 编辑

K-means算法(理论+opencv实现)
摘要:写在前面:之前想分类图像的时候有看过k-means算法,当时一知半解的去使用,不懂原理不懂使用规则。。。显然最后失败了,然后看了《机器学习》这本书对k-means算法有了理论的认识,现在通过贾志刚老师的视频有了实际应用的理解。 k-means算法原理 注:还是和之前一样,核心都是别人的,我只是知识的 阅读全文

posted @ 2017-06-13 17:59 影醉阏轩窗 阅读(1698) 评论(0) 推荐(2) 编辑

支持向量机(理论+opencv实现)
摘要:从基础开始讲起,没有这些东西看支持向量机真的很难! 1.拉格朗日乘子(Lagrangemultiplier) 假设需要求极值的目标函数(objectivefunction)为f(x,y),限制条件为φ(x,y)=M 设 定义一个新函数 则用偏导数方法列出方程: 、 、 求出x,y,λ的值,代入即可得 阅读全文

posted @ 2017-06-10 17:56 影醉阏轩窗 阅读(944) 评论(0) 推荐(1) 编辑

神经网络从基础到改进+源程序
摘要:神经网络初步学习总结:(对神经网络的模型有一定的了解,如果从未接触有点看不懂) 第一点:以下是最简单的神经网络模型了 x: 输入参数 a0: 输入偏置 a1: 输入权重 b0: 隐藏层偏置 b1: 隐藏层输入权重 y: 隐藏层输入参数(经过激励函数的输出,下面会讲解激励函数) Z: 隐藏层输出(经过 阅读全文

posted @ 2017-03-14 11:17 影醉阏轩窗 阅读(1635) 评论(0) 推荐(0) 编辑

BP神经网络的公式推导
摘要:如果感觉自己看不懂,那就看看我博客的梯度下降法,博文最后的感知机也算最简单的BP神经网络吧,用的也是反馈(w,b):典型梯度下降法 BP网络的结构 BP网络的结构如下图所示,分为输入层(Input),隐含层(Hidden),输出层(Output)。 输入层的结点个数取决于输入的特征个数。 输出层的结 阅读全文

posted @ 2017-03-06 19:54 影醉阏轩窗 阅读(9773) 评论(1) 推荐(1) 编辑

典型梯度下降法
摘要:这几天在看《统计学习方法》这本书,发现 梯度下降法 在 感知机 等机器学习算法中有很重要的应用,所以就特别查了些资料。 一.介绍 梯度下降法(gradient descent)是求解无约束最优化问题的一种常用方法,有实现简单的优点。梯度下降法是迭代算法,每一步需要求解目标函数的梯度向量。 二.应用场 阅读全文

posted @ 2017-03-03 22:31 影醉阏轩窗 阅读(912) 评论(1) 推荐(0) 编辑

经典最小二乘法
摘要:转载自:http://www.cnblogs.com/iamccme/archive/2013/05/15/3080737.html 参考: http://blog.csdn.net/qll125596718/article/details/8248249 一.背景 5月9号到北大去听hulu的讲座 阅读全文

posted @ 2017-03-03 21:05 影醉阏轩窗 阅读(658) 评论(0) 推荐(0) 编辑

导航

/* 线条鼠标集合 */ /* 鼠标点击求赞文字特效 */ //带头像评论