摘要: SqueezeNet模型主要是为了降低CNN模型参数数量而设计的。 3、在整个网络后期进行下采样,使得前期的卷积层有比较大的activation maps 阅读全文
posted @ 2018-10-15 21:55 Austin_anheqiao 阅读(270) 评论(0) 推荐(0) 编辑
摘要: 只有reduction-A是共用的,只是改了其中的几个参数 linear是线性激活。 结构是一样的 阅读全文
posted @ 2018-10-15 21:49 Austin_anheqiao 阅读(250) 评论(0) 推荐(0) 编辑
摘要: 注:平原改为简单堆叠网络 一般x是恒等映射,当x与fx尺寸不同的时候,w作用就是将x变成和fx尺寸相同。 过程: 先用w将x进行恒等映射、扩维映射或者降维映射d得到wx。(没有参数,不需要优化器训练),然后再使用优化器调整这个残差网络,这个时候优化器需要付出的effort就更小了。搜索空间更小,更容 阅读全文
posted @ 2018-10-15 21:43 Austin_anheqiao 阅读(1032) 评论(0) 推荐(0) 编辑
摘要: inception发展历程 v1 mlp多层感知器层 上面两个观看孔径,尺寸不一样,可以抽取不同分辨率,不同尺度的邻域范围的信息作为特征,这样就可以观察到输入数据的不同层次,不同分辨率的特征 因为这个1*1完了之后,就是做完内积以后,就在那一个点上,它是每个通道那一个点上做完内积,把所有通道的内积加 阅读全文
posted @ 2018-10-15 15:09 Austin_anheqiao 阅读(637) 评论(0) 推荐(1) 编辑
摘要: 介绍 VGGNet探索了CNN的深度与其性能之间的关系,反复堆叠3*3卷积核(pad=1,stride=1)和2*2最大池化核(pad=0,stride=2),16~19层深的卷积神经网络。 VGGNet常被用来提取图像特征。 主要是VGG16,19 特征提取器层是不一样的,主要每一行卷积的深度不一 阅读全文
posted @ 2018-10-15 13:33 Austin_anheqiao 阅读(563) 评论(0) 推荐(1) 编辑
摘要: 介绍 AlexNet是LeNet的一种更深更宽的版本。首次在CNN中应用ReLU、Dropout和LRN,GPU进行运算加速。 一共有13层,有8个需要训练参数的层(不包括池化层和LRN层),前5层是卷积层,后三层是全连接层。 最后一层是有1000个类输出的softmax层用作分类。 前言 截取22 阅读全文
posted @ 2018-10-15 12:46 Austin_anheqiao 阅读(665) 评论(0) 推荐(0) 编辑
摘要: 介绍 lenet-5卷积神经网络是Yann LeCun在1998年设计的用于手写数字识别的卷积神经网络,当年美国大多数银行就是用它来识别支票上面的手写数字的,它是早期卷积神经网络中最有代表性的试验系统之一。 lenet-5主要有2个卷积层、2个下抽样层(池化层)、三个全连接层3中连接方式,共7层(不 阅读全文
posted @ 2018-10-14 15:08 Austin_anheqiao 阅读(237) 评论(0) 推荐(1) 编辑
摘要: net.params['layername'].[0]/[1] caffe的一个程序跑完之后会在snapshot所指定的目录下产生一个后缀名为caffemode的文件,这里存放的就是我们在训练网络的时候得到的每层参数的信息。 如下所示,这里的net.params使用的是字典的格式: 格式: laye 阅读全文
posted @ 2018-10-12 16:10 Austin_anheqiao 阅读(866) 评论(0) 推荐(1) 编辑
摘要: PIL 输出的是(宽,高) 读取的格式需要将image转换成np.array才可以: tensorflow 输出的是(高,宽,channel) 阅读全文
posted @ 2018-10-12 14:38 Austin_anheqiao 阅读(149) 评论(0) 推荐(0) 编辑
摘要: 带 阅读全文
posted @ 2018-10-12 14:04 Austin_anheqiao 阅读(291) 评论(0) 推荐(0) 编辑