随笔分类 -  深度学习

摘要:一、简介 VGGNet是计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研究的深度卷积神经网络。VGGNet探索了卷积神经网络深度与性能之间的关系,通过反复堆叠3*3的小型卷积核和2*2的最大池化层,VGGNet成功地构筑了16~19层(这里 阅读全文
posted @ 2018-04-27 00:56 HOU_JUN 阅读(4873) 评论(0) 推荐(1)
摘要:谁创造了AlexNet? AlexNet是有Hinton大神的弟子Alex Krizhevsky提出的深度卷积神经网络。它可视为LeNet的更深更宽的版本。 AlexNet主要用到的技术 成功使用ReLU作为CNN的激活函数,并验证了其效果在较深的神经网络超过了sigmiod,成功解决了sigmoi 阅读全文
posted @ 2018-04-26 21:33 HOU_JUN 阅读(871) 评论(0) 推荐(0)
摘要:在进行卷积运算和池化的时候,对于输入图像大小为input_size,给定kernel_size、padding、stride,计算得出output_size为: output_size =1+ (input_size+2*padding-kernel_size)/stride 怎么理解这个等式?首先 阅读全文
posted @ 2018-03-10 17:51 HOU_JUN 阅读(14614) 评论(1) 推荐(0)
摘要:转自:http://blog.csdn.net/woaidapaopao/article/details/77806273 第一部分:深度学习 1、神经网络基础问题 (1)Backpropagation(要能推倒) 后向传播是在求解损失函数L对参数w求导时候用到的方法,目的是通过链式法则对参数进行一 阅读全文
posted @ 2018-03-09 18:56 HOU_JUN 阅读(18007) 评论(2) 推荐(2)
摘要:LeNet-5包含于输入层在内的8层深度卷积神经网络。其中卷积层可以使得原信号特征增强,并且降低噪音。而池化层利用图像相关性原理,对图像进行子采样,可以减少参数个数,减少模型的过拟合程度,同时也可以保留一定的有用信息。 图一 LeNet网络模型框架 层次 描述 参数个数与连接数 作用 INPUT 3 阅读全文
posted @ 2018-03-09 17:31 HOU_JUN 阅读(4191) 评论(0) 推荐(0)
摘要:除了L2正则化和dropout(随机失活)正则化之外,还有几种方法可以减少神经网络的过拟合,即数据集扩增 和 early stopping。 一、数据扩增 在计算机视觉数据中,通常做法是对图片的水平翻转,以及通过随意翻转和放大裁剪等操作。 虽然这样的做法与重新收集的图片数据相比,少了很多信息,但是这 阅读全文
posted @ 2018-02-04 17:52 HOU_JUN 阅读(519) 评论(0) 推荐(0)