随笔分类 - 深度学习
摘要:一、简介 VGGNet是计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研究的深度卷积神经网络。VGGNet探索了卷积神经网络深度与性能之间的关系,通过反复堆叠3*3的小型卷积核和2*2的最大池化层,VGGNet成功地构筑了16~19层(这里
阅读全文
摘要:谁创造了AlexNet? AlexNet是有Hinton大神的弟子Alex Krizhevsky提出的深度卷积神经网络。它可视为LeNet的更深更宽的版本。 AlexNet主要用到的技术 成功使用ReLU作为CNN的激活函数,并验证了其效果在较深的神经网络超过了sigmiod,成功解决了sigmoi
阅读全文
摘要:在进行卷积运算和池化的时候,对于输入图像大小为input_size,给定kernel_size、padding、stride,计算得出output_size为: output_size =1+ (input_size+2*padding-kernel_size)/stride 怎么理解这个等式?首先
阅读全文
摘要:转自:http://blog.csdn.net/woaidapaopao/article/details/77806273 第一部分:深度学习 1、神经网络基础问题 (1)Backpropagation(要能推倒) 后向传播是在求解损失函数L对参数w求导时候用到的方法,目的是通过链式法则对参数进行一
阅读全文
摘要:LeNet-5包含于输入层在内的8层深度卷积神经网络。其中卷积层可以使得原信号特征增强,并且降低噪音。而池化层利用图像相关性原理,对图像进行子采样,可以减少参数个数,减少模型的过拟合程度,同时也可以保留一定的有用信息。 图一 LeNet网络模型框架 层次 描述 参数个数与连接数 作用 INPUT 3
阅读全文
摘要:除了L2正则化和dropout(随机失活)正则化之外,还有几种方法可以减少神经网络的过拟合,即数据集扩增 和 early stopping。 一、数据扩增 在计算机视觉数据中,通常做法是对图片的水平翻转,以及通过随意翻转和放大裁剪等操作。 虽然这样的做法与重新收集的图片数据相比,少了很多信息,但是这
阅读全文

浙公网安备 33010602011771号