微信扫一扫打赏支持
摘要: Tensorflow2(预课程) 5.3.2、手写数字识别-层方式-卷积神经网络-LeNet-5稍改 一、总结 一句话总结: 对LeNet稍微改变,改变激活函数为Relu,加上dropout层,50epoch测试集准确率有99.4+,多训练,准确率会更高 # 用到卷积神经网络的时候,需要把训练和测试 阅读全文
posted @ 2020-09-18 20:27 范仁义 阅读(473) 评论(0) 推荐(0)
摘要: Tensorflow2(预课程) 5.3、手写数字识别-层方式-卷积神经网络-LeNet 一、总结 一句话总结: LeNet本来就是做手写识别的,所以用来做手写数字识别,测试集准确率有99.25 # 用到卷积神经网络的时候,需要把训练和测试的x的颜色通道数指出来 train_x = tf.resha 阅读全文
posted @ 2020-09-18 20:19 范仁义 阅读(411) 评论(0) 推荐(0)
摘要: LeNet-5详解 一、总结 一句话总结: (①)、LeNet是卷积神经网络的祖师爷LeCun在1998年提出,用于解决手写数字识别的视觉任务。自那时起,CNN的最基本的架构就定下来了:卷积层、池化层、全连接层。 (②)、LeNet-5跟现有的conv->pool->ReLU的套路不同,它使用的方式 阅读全文
posted @ 2020-09-18 19:15 范仁义 阅读(933) 评论(0) 推荐(0)
摘要: 卷积神经网络-LeNet 一、总结 一句话总结: (1)、LeNet-5的结构是卷积层、降采样层、卷积层、降采样层、全连接层。 (2)、对应的结构就是卷积层、池化层、卷积层、池化层、全连接层。 1、LeNet-5的前四层详细结构分析? 第一层(卷积convolutions):从32*32到6@28* 阅读全文
posted @ 2020-09-18 06:14 范仁义 阅读(465) 评论(0) 推荐(0)
摘要: LeNet结构详细分析 一、总结 一句话总结: 第一层(卷积):从32*32到6@28*28的卷积,需要的可以是6个5*5的卷积核,步长是1,1+32-5=28 第二层(下采样):从6@28*28到6@14*14的Subsampling(下采样、池化),需要的是2*2的池化核,步长是2 第三层(卷积 阅读全文
posted @ 2020-09-18 05:44 范仁义 阅读(653) 评论(0) 推荐(0)
摘要: 降采样层和池化层的关系 一、总结 一句话总结: 池化层可以理解为下采样层(降采样层),就是一个东西,两个名字而已。 1、池化层作用? ①、降维,减少网络要学习的参数数量。 ②、防止过拟合。 ③、可以扩大感知野。 ④、可以实现不变性:平移不变性,旋转不变性,尺度不变性。 二、下采样层和池化层的关系及其 阅读全文
posted @ 2020-09-18 05:21 范仁义 阅读(1214) 评论(0) 推荐(0)
摘要: Tensorflow2(预课程) 7.3、cifar10分类-层方式-卷积神经网络-简化LeNet 一、总结 一句话总结: 全连接层前面是两个卷积层,第一个是6@5*5,第二个是16@5*5,激活函数是sigmoid,没有批标准化,没有dropout # 构建容器 model = tf.keras. 阅读全文
posted @ 2020-09-18 01:55 范仁义 阅读(289) 评论(0) 推荐(0)