微信扫一扫打赏支持
上一页 1 ··· 57 58 59 60 61 62 63 64 65 ··· 498 下一页
摘要: LeNet-5详解 一、总结 一句话总结: (①)、LeNet是卷积神经网络的祖师爷LeCun在1998年提出,用于解决手写数字识别的视觉任务。自那时起,CNN的最基本的架构就定下来了:卷积层、池化层、全连接层。 (②)、LeNet-5跟现有的conv->pool->ReLU的套路不同,它使用的方式 阅读全文
posted @ 2020-09-18 19:15 范仁义 阅读(933) 评论(0) 推荐(0)
摘要: 卷积神经网络-LeNet 一、总结 一句话总结: (1)、LeNet-5的结构是卷积层、降采样层、卷积层、降采样层、全连接层。 (2)、对应的结构就是卷积层、池化层、卷积层、池化层、全连接层。 1、LeNet-5的前四层详细结构分析? 第一层(卷积convolutions):从32*32到6@28* 阅读全文
posted @ 2020-09-18 06:14 范仁义 阅读(465) 评论(0) 推荐(0)
摘要: LeNet结构详细分析 一、总结 一句话总结: 第一层(卷积):从32*32到6@28*28的卷积,需要的可以是6个5*5的卷积核,步长是1,1+32-5=28 第二层(下采样):从6@28*28到6@14*14的Subsampling(下采样、池化),需要的是2*2的池化核,步长是2 第三层(卷积 阅读全文
posted @ 2020-09-18 05:44 范仁义 阅读(653) 评论(0) 推荐(0)
摘要: 降采样层和池化层的关系 一、总结 一句话总结: 池化层可以理解为下采样层(降采样层),就是一个东西,两个名字而已。 1、池化层作用? ①、降维,减少网络要学习的参数数量。 ②、防止过拟合。 ③、可以扩大感知野。 ④、可以实现不变性:平移不变性,旋转不变性,尺度不变性。 二、下采样层和池化层的关系及其 阅读全文
posted @ 2020-09-18 05:21 范仁义 阅读(1214) 评论(0) 推荐(0)
摘要: Tensorflow2(预课程) 7.3、cifar10分类-层方式-卷积神经网络-简化LeNet 一、总结 一句话总结: 全连接层前面是两个卷积层,第一个是6@5*5,第二个是16@5*5,激活函数是sigmoid,没有批标准化,没有dropout # 构建容器 model = tf.keras. 阅读全文
posted @ 2020-09-18 01:55 范仁义 阅读(289) 评论(0) 推荐(0)
摘要: Tensorflow2(预课程) 5.2、手写数字识别-层方式-卷积神经网络 一、总结 一句话总结: 一、用到卷积神经网络的时候,需要把训练和测试的x的颜色通道数指出来 二、train_x = tf.reshape(train_x,[-1,28,28,1]) 三、test_x = tf.reshap 阅读全文
posted @ 2020-09-17 23:39 范仁义 阅读(413) 评论(0) 推荐(0)
摘要: Keras深度学习之卷积神经网络(CNN) 一、总结 一句话总结: 卷积就是特征提取,后面可接全连接层来分析这些特征 二、Keras深度学习之卷积神经网络(CNN) 转自或参考:Keras深度学习之卷积神经网络(CNN)https://www.cnblogs.com/wj-1314/articles 阅读全文
posted @ 2020-09-17 21:04 范仁义 阅读(933) 评论(0) 推荐(0)
摘要: keras中添加正则化 一、总结 一句话总结: model.add(Dense(64, input_dim=64,kernel_regularizer=regularizers.l2(0.01)) 1、keras正则化几个关键字? kernel_regularizer:施加在权重上的正则项,为ker 阅读全文
posted @ 2020-09-17 20:50 范仁义 阅读(1256) 评论(0) 推荐(0)
摘要: TensorFlow优化模型之正则化 一、总结 一句话总结: 一)、正则化:是一种常用的为了避免过度拟合而采用的一种算法。正则化的主要思想是通过在损失函数中加入刻画模型复杂程度的指标, 二)、无论是L1正则化还是L2正则化,两者的目的都是通过限制权重的大小,来使得模型不能任意的拟合训练数据中的随机噪 阅读全文
posted @ 2020-09-17 20:41 范仁义 阅读(346) 评论(0) 推荐(0)
摘要: Tensorflow2(预课程) 7.2、cifar10分类-层方式-卷积神经网络 一、总结 一句话总结: 卷积层构建非常简单,就是CBAPD,注意卷积层接全连接层的时候注意flatten打平 # 构建容器 model = tf.keras.Sequential() # 卷积层 model.add( 阅读全文
posted @ 2020-09-17 17:49 范仁义 阅读(561) 评论(0) 推荐(0)
上一页 1 ··· 57 58 59 60 61 62 63 64 65 ··· 498 下一页