23.4.3 文献总结——杂读

2017 CVPR Enhanced Deep Residual Networks for Single Image Super-Resolution

主要贡献如下:

1.针对SR任务,提出了enhanced deep super-resolution network (EDSR),去掉residual block中不必要的模块从而提高性能,只能进行单尺度的SR任务。

 

 

 从网络中去除了BN,因为BN对feature进行了归一化,从而失去了网络特征的灵活度。

网络结构图如下图所示。

2.提出multi-scale deep super-resolution system (MDSR),可以进行多尺度的SR任务。

网络结构如下图所示。

3.提出self-ensemble方法。在推理时对输入图像进行旋转,再分别输入网络,最后对输出进行与输入相反的旋转,再多个输出取平均,获得了性能上的提升。

实验结果如下图所示。使用了随机90°旋转和水平翻转的数据增强。后缀为+代表使用了self-ensemble。

2017 CVPR Image Super-Resolution via Deep Recursive Residual Network

针对SR任务,提出了Deep Recursive Residual Network (DRRN),网络结构如下图(d)所示。

 

DRRN的残差单元的组成如下图所示。

 

 

实验结果如下图所示。

2018 ECCV Image Super-Resolution Using Very Deep Residual Channel Attention Networks

主要贡献如下:

1.针对SR任务,提出very deep residual channel attention networks (RCAN)。

网络结构如下图所示。

2.提出residual in residual (RIR) 结构来构建深度网络。

3.使用通道注意力机制,自适应地调整特征的权重。

通道注意力的计算过程如下图所示。

 

RCAN块如下图所示。

 

 

实验结果如下图所示。使用了随机90°,180°,270°旋转和水平翻转的数据增强。

2022 CVPR MAXIM: Multi-Axis MLP for Image Processing

前言:MLP-Mixer采用了简单的混合MLP来代替ViT中的自注意力,形成了一个纯MLP的架构。gMLP在visual tokens中使用了空间门限单元。ResMLP采用了Affine transformation来代替Layer Normalization。FNet和GFNet证明了简单的傅里叶变换就可以作为自注意力或者MLP的有力替代。MAXIM正是基于以上研究。

主要贡献如下:

1.针对去噪、去模糊、去雾、去雾和增强等一系列low-level图像处理任务,提出了MAXIM,以编码器和解码器的堆叠为主干。

2.提出了multi-axis gated MLP module,具有全局视野,同时随图像大小的增加,计算复杂度呈线性增加而不是平方增加。

两路MLP,Local Branch在通道维上做MLP,Global Branch在亚像素维做MLP,最后将二者concat。

3.提出了cross gating block。

2022 CVPR Uformer: A General U-Shaped Transformer for Image Restoration

针对图像去噪,运动去模糊,离焦去模糊和去伪等一系列任务,提出了Uformer。网络结构如下图所示。

2022 CVPR Restormer: Efficient Transformer for High-Resolution Image Restoration

 针对图像去雨、单幅图像运动去模糊、散焦去模糊(单幅图像和双像素数据)和图像去噪(高斯灰度/颜色去噪和真实图像去噪),提出了Restormer。

 

posted @ 2023-04-03 16:38  实数集  阅读(118)  评论(0)    收藏  举报