DRConv:旷视提出区域感知动态卷积,多任务性能提升 | CVPR 2020

论文提出DRConv,很好地结合了局部共享的思想并且保持平移不变性,包含两个关键结构,从实验结果来看,DRConv符合设计的预期,在多个任务上都有不错的性能提升

来源:晓飞的算法工程笔记 公众号

论文: Dynamic Region-Aware Convolution

Introduction


  目前主流的卷积操作都在空间域进行权值共享,而如果想得到更丰富的信息,只能通过增加卷积的数量来实现,这样不仅计算低效,也会带来网络优化困难。与主流卷积不同,local conv在不同的像素位置使用不同的权值,这样能够高效地提取丰富的信息,主要应用在人脸识别领域,但local conv不仅会带来与特征图大小相关的参数量,还会破坏平移不变性。

  考虑到以上两种卷积的优劣,论文提出了DRConv(Dynamic Region-Aware Convolution),DRConv的结构如图1,首先通过标准卷积来生成guided feature,根据guided feature将空间维度分成多个区域,卷积核生成模块\(G(\cdot)\)根据输入图片动态生成每个区域对应的卷积核。DRConv能够可学习地为不同的像素位置匹配不同的卷积核,不仅具有强大的特征表达能力,还可以保持平移不变性。由于卷积核是动态生成的,能比local conv减少大量的参数,而整体计算量几乎和标准卷积一致。
  论文的主要贡献如下:

  • 提出DRConv,不仅具有强大的语义表达能力,还能很好地维持平移不变性。
  • 巧妙的设计了可学习guided mask的反向传播,明确区域共享的规则(region-sharing-pattern),并根据损失函数回传的梯度进行更新。
  • 只需简单地替换,DRConv就能在图片分类,人脸识别,目标检测和语义分割等多个任务上达到很好的性能。

Our Apporach


Dynamic Region-Aware Convolution

  对于标准卷积,定义输入\(X\in \mathbb{R}^{U\times V\times C}\),空间维度\(S\in \mathbb{R}^{U\times V}\),输出\(Y\in \mathbb{R}^{U\times V\times O}\),权重\(W\in \mathbb{R}^C\),输出的每个channel的计算如公式1,\(*\)为二维卷积操作。

  对于基础的local conv,定义非共享权重\(W\in \mathbb{R}^{U\times V\times C}\),输出的每个channel计算如公式2,其中\(W_{u,v,c}^{(o)}\)表示位置\((u,v)\)上的独立非共享卷积核,即卷积在特征图上移动时,每次更换不同的卷积核。

  结合以上公式,定义guided mask\(M={S_0, \cdots,S_{m-1}}\)用来表示空间维度划分的\(m\)个区域,\(M\)根据输入图片的特征进行提取,每个区域\(S_t(t\in [0, m-1])\)仅使用一个共享的卷积核。定义卷积核集\(W=[W_0,\cdots,W_{m-1}]\),卷积核\(W_t \in \mathbb{R}^C\)对应于区域\(S_t\)。输出的每个channel的计算如公式3,即卷积在特征图上移动时,每次根据guided mask更换对应的卷积核。
  从上面的描述可以看到,DRConv包含两个主要部分:

  • 使用可学习的guided mask来将空间维度划分为多个区域,如图1所示,guided mask中相同颜色的像素归为同一区域,从语义的角度来看,即将语义相似的特征归为统一区域。
  • 对于每个共享区域,使用卷积核生成模块来生成定制的卷积核来进行常规的2D卷积操作,定制的卷积核能够根据输入图片的重要特征自动地进行调节。

Learnable guided mask

  作为DRConv的重要部分,guided mask决定了卷积核在空间维度上的分布,该模块由损失函数指导优化,从而能够适应输入的空间信息变化,从而改变卷积核的分布。

  对于包含\(m\)个channel的\(k\times k\)DRConv,定义\(F\)为guided feature,\(M\)为guided mask,\(M\)上的每个位置\((u,v)\)的值计算如公式4,函数\(argmax(\cdot)\)输出最大值的下标,\(F_{u,v}\)为位置\((u,v)\)上的guided feature向量,所以\(M\)的值为\([0, m-1]\),用来指示该位置对应的卷积下标。

  为了让guided mask可学习,必须得到用来生成guided feature的权值的梯度,但由于\(argmax(\cdot)\)的使用导致guided feature的梯度无法计算,所以论文设计了类似的梯度。

  • Forward propagation

  根据公式4获得guided mask,根据公式5得到每个位置\((u,v)\)得到卷积核\(\tilde{W}_{u,v}\),其中\(W_{M_{u,v}}\)\(G(\cdot)\)生成的卷积核集\([W_0, \cdots, W_{m-1}]\)中的一个,\(M_{u,v}\)是guided feature在位置\((u,v)\)上值最大的channel下标,通过这种方式来\(m\)个卷积核与所有位置的关系,将空间像素分为\(m\)个组。使用相同卷积核的像素包含相似的上下文信息,主要由于具有平移不变性标准卷积将这些信息传递给了guided feature。

  • Backward propagation

  为了使梯度得到回传,首先用\(\hat{F}\)来代替guided mask的one-hot表示,计算如公式6所示,在channel维度上进行\(softmax(\cdot)\),期望\(\hat{F}_{u,v}^j\)能尽可能地接近0和1,这样\(\hat{F}_{u,v}^j\)与guided mask的one-hot表示将非常相似。公式5可以看作是卷积核集\([W_0,\cdots,W_{m-1}]\)乘以\(M_{u,v}\)的one-hot表示,这里替换为\(\hat{F}_{u,v}^j\)

\(\hat{F}_{u,v}^j\)的梯度计算如公式7,$\langle, \rangle \(为点积,\)\bigtriangledown_{\cdot} \mathcal{L}$表示guided mask对应loss函数的梯度,如图a,公式7近似于公式5的反向传播。

  公式8为公式6的反向传播,\(\odot\)为逐元素相乘,如果不设计特殊的反向传播,SGD将不能对相关的参数进行优化,因为函数\(argmax(\cdot)\)是不可导的。因此,\(softmax(\cdot)\)是用来接近\(argmax(\cdot)\),通过替换函数将梯度回传到guided feature,是的guided mask可学习。

Dynamic Filter: Filter generator module

  在DRConv中,使用卷积核生成模块来生成不同区域的卷积核,由于不同图片的特征不同,在图片间共享的卷积核不能高效地提取其独有的特征,需要定制化的特征来专注不同图片的特性。

  定义输入\(X\in \mathbb{R}^{U\times V\times C}\),包含两层卷积的卷积核生成模块\(G(\cdot)\)\(m\)个卷积\(W=[W_0,\cdots,W_{m-1}]\),每个卷积仅用于区域\(R_t\)。如图b所示,为了获得\(m\)\(k\times k\)卷积,先使用自适应平均池化将\(X\)下采样为\(k\times k\),然后使用两个连续的\(1\times 1\)卷积,第一个使用\(sigmoid(\cdot)\)进行激活,第二个设定\(group=m\),不使用激活。卷积核生成模块能够增强网络获取不同图片特性的能力,由于根据输入的特征生成卷积核,每个卷积核的关注点能够根据输入的特性进行自动地调整。

Experiments


Classification

Face Recognition

COCO Object Detection and Segmentation

Ablation Study


Visualization of dynamic guided mask

Different model size

Different region number

Different spatial size

CONCLUSION


  论文提出DRConv,很好地结合了局部共享的思想并且保持平移不变性,包含两个关键结构,首先使用guided mask对特征图中的像素划分到不同的区域,其次使用卷积核生成模块动态生成区域对应的卷积核。从实验结果来看,DRConv符合设计的预期,特别是图3的guided mask的可视化结果,在多个任务上都有不错的性能提升。



如果本文对你有帮助,麻烦点个赞或在看呗~
更多内容请关注 微信公众号【晓飞的算法工程笔记】

work-life balance.

posted @ 2020-06-05 13:47  晓飞的算法工程笔记  阅读(1607)  评论(0编辑  收藏  举报