随笔分类 -  视觉

摘要:https://zhuanlan.zhihu.com/p/21412911 rcnn需要固定图片的大小,fast rcnn不需要 rcnn,sppnet,fast rcnn,ohem,faster rcnn,rfcn都属于基于region proposal(候选区域)的目标检测方法,即预先找出图中目 阅读全文
posted @ 2017-07-29 16:55 有梦就要去实现他 阅读(652) 评论(0) 推荐(0)
摘要:1.如何降低过拟合 答:过拟合是参数过多造成训练集准确率较高,但验证集或测试集准确率较低的情况,即过度拟合训练集数据。增加网络的深度和宽度都会增加参数量,像vgg那样3层3x3网络替代一个7层,既增加网络的深度 又减少参数量的方式是一种很好的方式。同一个网络增加训练数据量,即data augment 阅读全文
posted @ 2017-05-31 17:13 有梦就要去实现他 阅读(518) 评论(0) 推荐(0)
摘要:http://blog.csdn.net/zhangjunbob/article/details/52769381 阅读全文
posted @ 2017-05-10 14:54 有梦就要去实现他 阅读(364) 评论(0) 推荐(0)
摘要:http://www.cnblogs.com/louyihang-loves-baiyan/p/4906690.html https://saicoco.github.io/object-detection-4/ 阅读全文
posted @ 2017-05-09 12:46 有梦就要去实现他 阅读(353) 评论(0) 推荐(0)
摘要:http://blog.csdn.net/xjz18298268521/article/details/52681966 https://zhuanlan.zhihu.com/p/25600546 https://zhuanlan.zhihu.com/p/24774302 http://www.my 阅读全文
posted @ 2017-05-09 11:11 有梦就要去实现他 阅读(176) 评论(0) 推荐(0)
摘要:http://blog.csdn.net/shenxiaolu1984/article/details/51036677 https://zhuanlan.zhihu.com/p/24780395 http://closure11.com/rcnn-fast-rcnn-faster-rcnn%E7% 阅读全文
posted @ 2017-05-03 16:36 有梦就要去实现他 阅读(177) 评论(0) 推荐(0)
摘要:https://zhuanlan.zhihu.com/p/23006190?refer=xiaoleimlnote http://blog.csdn.net/bea_tree/article/details/51659263 http://blog.csdn.net/liyaohhh/article 阅读全文
posted @ 2017-05-02 10:57 有梦就要去实现他 阅读(179) 评论(0) 推荐(0)
摘要:internal covariate shift(ics):训练深度神经网络是复杂的,因为在训练过程中,每层的输入分布会随着之前层的参数变化而发生变化。所以训练需要更小的学习速度和careful参数初始化,这将减缓训练的速度。 bn的目的就是解决ics 我们知道在神经网络训练开始前,都要对输入数据做 阅读全文
posted @ 2017-04-17 11:24 有梦就要去实现他 阅读(316) 评论(0) 推荐(0)
摘要:https://zhuanlan.zhihu.com/p/23270674 https://www.zybuluo.com/Feiteng/note/20154 阅读全文
posted @ 2017-04-14 15:16 有梦就要去实现他 阅读(123) 评论(0) 推荐(0)
摘要:Introduction: 传统的cnn过滤器是一个泛化的线性模型(GLM),我们认为这GLM的抽象能力是低级别的。把GLM替换为一个更有效的非线性函数近似能够提高抽象能力。当例子是线性可分时,GLM能实现很好的抽象。然而例子很多情况下是线性不可分的,输入的线性函数才能很好地表达。此网络没有采用传统 阅读全文
posted @ 2017-04-12 18:15 有梦就要去实现他 阅读(677) 评论(0) 推荐(0)
摘要:Architecture: 整个网络8层,5个卷积层,3个全连接层 Relu Nonlinearity: 非饱和的relu比饱和的sigmoid或者tanh训练速度快很多,并有效解决梯度消失 Overlapping Pooling: 论文中整个网络都使用重叠网络,分别降低top-1、top-5的错误 阅读全文
posted @ 2017-04-12 16:33 有梦就要去实现他 阅读(194) 评论(0) 推荐(0)
摘要:vggNet是从AlexNet而来,主要探索卷积神经网络的深度与性能之间的关系,通过反复堆叠3x3的卷积核(c中有1x1的卷积核,也只有c中有,c是16层)和2x2的最大池化层,vggNet构筑了16-19层深的卷积神经网络。 3x3卷积核:the smallest size to capture 阅读全文
posted @ 2017-04-12 11:28 有梦就要去实现他 阅读(351) 评论(0) 推荐(0)
摘要:inception1还在增加宽度,但resnet没有,只是增加深度 阅读全文
posted @ 2017-04-11 16:50 有梦就要去实现他 阅读(196) 评论(0) 推荐(0)
摘要:深度在神经网络中有及其重要的作用,但越深的网络越难训练。 随着深度的增加,从训练一开始,梯度消失或梯度爆炸就会阻止收敛,normalized initialization和intermediate normalization能够解决这个问题。但依旧会出现degradation problem:随着深 阅读全文
posted @ 2017-04-11 16:21 有梦就要去实现他 阅读(2769) 评论(0) 推荐(0)
摘要:从LeNet-5开始,cnn就有了标准的结构:stacked convolutional layers are followed by one or more fully-connected layers。对于Imagenet这种大的数据集,趋势是增加层数和层的大小,用dropout解决过拟合。 1 阅读全文
posted @ 2017-04-11 11:43 有梦就要去实现他 阅读(542) 评论(0) 推荐(0)
摘要:1.深度学习本质就是找一个函数能够拟合某一个的问题。 2.如果没有非线性的激活函数,整个函数就只有线性,也就是说你只能去线性地分类问题,但很多问题都不是线性可分的。 3.人脑神经元的连接是稀疏的,因此研究者认为大型神经网络的合理的连接方式应该也是稀疏的。稀疏结构是非常适合神经网络的一种结构,尤其是对 阅读全文
posted @ 2017-04-06 17:47 有梦就要去实现他 阅读(225) 评论(0) 推荐(0)
摘要:如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出都是上层输入的线性函数,很容易验证,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Perceptron)了。正因为上面的原因,我们决定引入非线性函数作为激励函数,这样 阅读全文
posted @ 2017-04-06 17:24 有梦就要去实现他 阅读(1111) 评论(0) 推荐(0)