目录

  感受野

  多个小卷积核连续卷积和单个大卷积核卷积的作用相同

  小卷积核的优势

  参考资料


 

感受野

在卷积神经网络中,感受野(Receptive Field)的定义是卷积神经网络每一层输出的特征图(feature map)上的像素点在输入图片上映射的区域大小。再通俗点的解释是,特征图上的一个点对应输入图上的区域,如下图所示:

 返回目录

 

多个小卷积核连续卷积和单个大卷积核卷积的作用相同

像LeNet、AlexNet网络,都是用了较大的卷积核,目的是提取出输入图像更大邻域范围的信息,一般是卷积与池化操作相连。而小卷积核同样可以做到这个效果,其结构可能有多个卷积相连,然后再连接池化层。

以一个5*5的卷积核举例:

以2个3*3的卷积核举例:

结论:

使用3*3的卷积核连续卷积2次可以达到5*5的卷积核卷积1次提取特征图的能力;

同理,使用3*3的卷积核连续卷积3次可以达到7*7的卷积核卷积1次提取特征图的能力;

 返回目录

 

小卷积核的优势

优势一:

整合了三个非线性激活层,代替单一非线性激活层,增加了判别能力。

 

优势二:

减少了网络参数。

以3个3*3的级联卷积代替1个7*7的卷积为例:可以减少7*7-3*3*3=22个参数,减少了45%的参数。

以2个3*3的级联卷积代替1个5*5的卷积为例:可以减少5*5-2*3*3=7个参数,减少了28%的参数。

 

 

优势三:

 

减少了计算量

 

以3个3*3的级联卷积代替1个7*7的卷积为例:可以减少7*7*L-3*3*3*L=22*L次计算,减少了45%的计算量。

 

以2个3*3的级联卷积代替1个5*5的卷积为例:可以减少5*5*L-2*3*3*L=7*L次计算,减少了28%的计算量。

 

 返回目录

 

参考资料

《图解深度学习与神经网络:从张量到TensorFlow实现》_张平

《深-度-学-习-核-心-技-术-与-实-践》

 返回目录

 

posted on 2019-08-20 10:05  知识天地  阅读(1985)  评论(0编辑  收藏  举报