摘要:        
LeNet-5详解 一、总结 一句话总结: (①)、LeNet是卷积神经网络的祖师爷LeCun在1998年提出,用于解决手写数字识别的视觉任务。自那时起,CNN的最基本的架构就定下来了:卷积层、池化层、全连接层。 (②)、LeNet-5跟现有的conv->pool->ReLU的套路不同,它使用的方式    阅读全文
posted @ 2020-09-18 19:15
范仁义
阅读(933)
评论(0)
推荐(0)
        
            
        
        
摘要:        
卷积神经网络-LeNet 一、总结 一句话总结: (1)、LeNet-5的结构是卷积层、降采样层、卷积层、降采样层、全连接层。 (2)、对应的结构就是卷积层、池化层、卷积层、池化层、全连接层。 1、LeNet-5的前四层详细结构分析? 第一层(卷积convolutions):从32*32到6@28*    阅读全文
posted @ 2020-09-18 06:14
范仁义
阅读(465)
评论(0)
推荐(0)
        
            
        
        
摘要:        
LeNet结构详细分析 一、总结 一句话总结: 第一层(卷积):从32*32到6@28*28的卷积,需要的可以是6个5*5的卷积核,步长是1,1+32-5=28 第二层(下采样):从6@28*28到6@14*14的Subsampling(下采样、池化),需要的是2*2的池化核,步长是2 第三层(卷积    阅读全文
posted @ 2020-09-18 05:44
范仁义
阅读(653)
评论(0)
推荐(0)
        
            
        
        
摘要:        
降采样层和池化层的关系 一、总结 一句话总结: 池化层可以理解为下采样层(降采样层),就是一个东西,两个名字而已。 1、池化层作用? ①、降维,减少网络要学习的参数数量。 ②、防止过拟合。 ③、可以扩大感知野。 ④、可以实现不变性:平移不变性,旋转不变性,尺度不变性。 二、下采样层和池化层的关系及其    阅读全文
posted @ 2020-09-18 05:21
范仁义
阅读(1214)
评论(0)
推荐(0)
        
            
        
        
摘要:        
Tensorflow2(预课程) 7.3、cifar10分类-层方式-卷积神经网络-简化LeNet 一、总结 一句话总结: 全连接层前面是两个卷积层,第一个是6@5*5,第二个是16@5*5,激活函数是sigmoid,没有批标准化,没有dropout # 构建容器 model = tf.keras.    阅读全文
posted @ 2020-09-18 01:55
范仁义
阅读(289)
评论(0)
推荐(0)
        
 
    
 
 浙公网安备 33010602011771号
浙公网安备 33010602011771号