随笔分类 -  四大网络

摘要:创新点(小卷积核、小池化核、层数更深、全连接变卷积) 对AlexNet改进,在第一个卷积层中使用了更小的卷积核和卷积stride 多尺度(训练和测试时,采用图片的不同尺度(当然是按各向同性缩放的最小边划定标准)) 层数深 测试阶段,将三个全连接变为三个卷积层,以适应任何大小的图片输入(最后那里是sc 阅读全文
posted @ 2019-11-22 00:34 博博的Blog 阅读(400) 评论(0) 推荐(0)
摘要:创新点 成功的使用relu函数替代了sigmoid函数,解决了使用sigmoid的梯度消散问题 成功的在全连接层使用dropout 成功的使用重叠最大池化 提出了LRN 利用GPU进行运算 数据增强256×256裁224×224并flip,RGB的PCA处理 relu函数的优点 增加非线性 增加网络 阅读全文
posted @ 2019-11-21 20:32 博博的Blog 阅读(128) 评论(0) 推荐(0)
摘要:一、特点 1、对AlexNet改进,在第一个卷积层用了更小的卷积核和stride 2、多尺度训练(训练和测试时,采用整张图的不同尺度) 由此,VGG结构简单,提取特征能力强,应用场景广泛 由单尺度测试结果对比: 二、 不同结构的对比 VGG一共提供了6个网络版本,一次探究不同网络的效果对比。 下面简 阅读全文
posted @ 2019-10-04 14:51 博博的Blog 阅读(570) 评论(0) 推荐(0)
摘要:   本文主要介绍AlextNet的一些知识,这些知识经常被忽略 一、AlextNet的创新点 (1)成功使用ReLU作为CNN的激活函数,并验证其效果在较深的网络超过了Sigmoid,成功解决了Sigmoid在网络较深时的梯度弥散问题。虽然ReLU激活函数在很久之前就被提出了, 阅读全文
posted @ 2019-10-02 17:33 博博的Blog 阅读(793) 评论(0) 推荐(0)