上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 22 下一页
摘要: 一些公式: 对于随机变量X,它的期望可以表示为EX,下面看看它的方差怎么表示: DX = E(X-EX)2 = E(X2-2XEX +(EX)2) = EX2 - (EX)2 所以当 EX=0时,DX = EX2 当随机变量X与随机变量Y相互独立时,我们有这样的结论: EXY = EX * EY DXY = EX2EY2 –(EX)2(EY)2 D(X+Y) = DX + DY + ... 阅读全文
posted @ 2016-12-30 09:02 殷大侠 阅读(13731) 评论(0) 推荐(1) 编辑
摘要: 由Andrew Zisserman 教授主导的 VGG 的 ILSVRC 的大赛中的卷积神经网络取得了很好的成绩,这篇文章详细说明了网络相关事宜。 文章主要干了点什么事呢?它就是在在用卷积神经网络下,在采用小的卷积核与小的移动步长的情况下,探索一下网络的深度对目标识别率的影响。 网络的大体结构 网络的输入为224*224的RGB图片,后面跟卷积层,卷积核的大小基本都为3*3有最小的可以保留图片... 阅读全文
posted @ 2016-12-29 17:47 殷大侠 阅读(5512) 评论(0) 推荐(0) 编辑
摘要: 一点最重要的学习方法: 当你读一篇论文读不懂时,如果又读了两遍还是懵懵懂懂时怎么办???方法就是别自己死磕了,去百度一下,如果是很好的论文,大多数肯定已经有人读过并作为笔记了的,比如我现在就把我读过以后的收获记下来(我也看了好几篇前人的博文的)。。。百度没有去试试google吧。。。如何快速读懂读明白一篇文章也是一种能力,选择的方法往往大于努力的。 对于这篇论文,网上有很多写的好的总结,大家可... 阅读全文
posted @ 2016-12-29 11:05 殷大侠 阅读(4455) 评论(1) 推荐(2) 编辑
摘要: 首先说明:在caffe/include/caffe中的 filer.hpp文件中有它的源文件,如果想看,可以看看哦,反正我是不想看,代码细节吧,现在不想知道太多,有个宏观的idea就可以啦,如果想看代码的具体的话,可以看:http://blog.csdn.net/xizero00/article/details/50921692,写的还是很不错的(不过有的地方的备注不对,不知道改过来了没)。 文件... 阅读全文
posted @ 2016-12-12 19:39 殷大侠 阅读(8405) 评论(0) 推荐(1) 编辑
摘要: 什么是二维仿射呢变换呢?这么说的哈:在变换过程中,它保持了二维图形的“平直性”(即:直线经过变换之后依然是直线)和“平行性”(即:二维图形之间的相对位置关系保持不变,平行线依然是平行线,且直线上点的位置顺序不变)。如,旋转、平移、缩放、错切。我们来一个一个地看。 为了能实现平移操作,我们现在规定,我们都是在我们的二维坐标基础上再补充一个1,即由[x, y]T变为[x, y, 1]T. 缩放操作... 阅读全文
posted @ 2016-12-09 11:44 殷大侠 阅读(2751) 评论(0) 推荐(0) 编辑
摘要: 首先说,这是我写的最烂的,因为我自己有一些也没有弄明白,强烈建议别看,强烈不建议看哦。。(我不暂时不想花太多时间去 搞它,因为我用不着它,如果用到它的时候到好好看看吧,我了解一下原理,一些细节 吧我有一些想不明白) 下面这是我的简单介绍与理解,或者理解的不够深。 这玩意的作用就是用于解决问题的吧,一切算法都要向解决的问题去靠,如果单純停留在数学分析上,很迷迷糊糊的哦。。所以,我们站在一定高度上去看... 阅读全文
posted @ 2016-12-08 09:43 殷大侠 阅读(10752) 评论(1) 推荐(0) 编辑
摘要: K-means算法很简单,它属于无监督学习算法中的聚类算法中的一种方法吧,利用欧式距离进行聚合啦。 解决的问题如图所示哈:有一堆没有标签的训练样本,并且它们可以潜在地分为K类,我们怎么把它们划分呢? 那我们就用K-means算法进行划分吧。 算法很简单,这么做就可以啦: 第一步:随机初始化每种类别的中心点,u1,u2,u3,……,uk; 第二步:重复以下过程: 然后 ,就没有然后了... 阅读全文
posted @ 2016-12-04 23:19 殷大侠 阅读(14715) 评论(0) 推荐(1) 编辑
摘要: 对于高斯混合模型是干什么的呢?它解决什么样的问题呢?它常用在非监督学习中,意思就是我们的训练样本集合只有数据,没有标签。 它用来解决这样的问题:我们有一堆的训练样本,这些样本可以一共分为K类,用z(i)表示。,但是具体样本属于哪类我们并不知道,现在我们需要建立一个模型来描述这个训练样本的分布。这时, 我们就可以用高斯混合模型来进行描述。 怎么入手呢? 高斯混合模型: 我们这么想,因为样本集合潜... 阅读全文
posted @ 2016-12-04 23:06 殷大侠 阅读(1963) 评论(0) 推荐(0) 编辑
摘要: 对于常见的分类算法,经常用到的都是判别学习算法,如 logistic二元分类器,还有softmax分类器等。它们都有一个共同的特点,那就是我们直接去求 p(y|x; θ), 有时候也表示为 hθ(x),这类方法的重点是去拟合参数θ。 还有一种算法:生成学习算法。它的中心思想是直接去求p(y|x; θ 阅读全文
posted @ 2016-12-04 21:06 殷大侠 阅读(4045) 评论(0) 推荐(0) 编辑
摘要: 首先说明啊:logistic分类器是以Bernoulli(伯努利) 分布为模型建模的,它可以用来分两种类别;而softmax分类器以多项式分布(Multinomial Distribution)为模型建模的,它可以分多种互斥的类别。 补充: 什么是伯努利分布?伯努利分布[2] 是一种离散分布,有两种 阅读全文
posted @ 2016-12-04 17:21 殷大侠 阅读(94297) 评论(5) 推荐(3) 编辑
上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 22 下一页