VGG梳理

创新点(小卷积核、小池化核、层数更深、全连接变卷积)

  • 对AlexNet改进,在第一个卷积层中使用了更小的卷积核和卷积stride
  • 多尺度(训练和测试时,采用图片的不同尺度(当然是按各向同性缩放的最小边划定标准))
  • 层数深
  • 测试阶段,将三个全连接变为三个卷积层,以适应任何大小的图片输入(最后那里是score map求平均)

不同层次的网络结构


从上图可以看出,依旧延续了AlexNet的5-3结构(5个卷积快,3个全连接,其中最后一个是输出)

实验结果


  • LRN无用
  • 加深网络,可以提高精度
  • 多尺度输入(训练)可以提高精度
  • 多尺度测试也可以提高精度(多尺度训练、多尺度测试合称尺度抖动)
  • 融合dense evaluation和multi-scale evaluation效果好
    dense evaluation表示不进行224×224的裁剪,直接放入网络,全连接改为卷积

感受野的大小

卷积神经网络特征图上的像素点映射回原图上的大小

两个问题

Q1:为什么使用3×3的卷积核
(1)减小参数量,若生成相同大小的特征图,三个3×3的卷积相当于一个7×7的卷积:
3×(C×3×3×C)=27C2

C×7×7×C = 49C2
(2)激活层增加,增加非线性

Q2:1×1卷积核的作用
(1)一种为决策增加非线性因素的方式
(2)调整网络的维度扩维或者缩小维度

posted @ 2019-11-22 00:34  博博的Blog  阅读(351)  评论(0编辑  收藏  举报