23.4.23 文献总结——Image Restoration

Image Restoration

CVPR23 DDT: Dual-branch Deformable Transformer for Image Denoising

主要贡献如下:

1.提出一个高效的双分支可形变的transformer去噪网络,能够以线性复杂度处理高分辨率的噪声图像。

采用了类似unet的网络结构,如下图所示。在计算注意力图的时候分两路,一路顾及局部的注意力,一路顾及全局的注意力,从而能够以线性复杂度处理高分辨率图像。

2.引入可形变注意力机制来减少冗余的计算,并且关注具有更有信息的区域。

在计算注意图时使用可形变注意力机制,如下图所示。

3.该方法在计算成本更少的同时获得了比sota方法更好的性能。

 

CVPR23 Efficient and Explicit Modelling of Image Hierarchies for Image Restoration

利用了自然图像的两个特性:1.跨尺度相似性;2.各向异性的图像特征,从而提出了anchored stripe attention。

网络结构如下图所示。anchored stripe attention相对于传统的qkv多增加了一个a,q和k先分别与a算相似度。多路不同的注意力机制相加获得最终的注意力图。

 

CVPR22 Restormer: Efficient Transformer for High-Resolution Image Restoration

主要贡献如下:

1.提出了可处理高分辨率图像的多尺度局部-全局表示学习的restormer,而不像swin transformer一样使用局部窗口的注意力。

网络结构如下图所示。

2.提出multi-Dconv head transposed attention(MDTA),能够聚合局部和非局部的信息交互。

先用卷积聚合信息再计算注意力图。

3.提出gated-Dconv feed-forward network (GDFN) ,能够抑制信息较少的特征,只允许有用信息在网络结构中传递。

激活函数作为门控。

 

 ECCV22 Simple Baselines for Image Restoration

主要贡献如下:

1.在几个图像修复任务上获得了SOTA表现的同时大大减少了系统复杂度。

2.基于通道注意力提出了简化的通道注意力。

3.在网络中去掉了所有的非线性激活函数,第一次证明了非线性激活函数对于SOTA的CV模型来说并不是必要的。

 

posted @ 2023-04-23 21:12  实数集  阅读(127)  评论(0)    收藏  举报