Lightweight Pyramid Networks for Image Deraining
作者:厦门大学信通系
SmartDSP实验室,项目官网题目:用于图像去雨的轻量级金字塔网络
摘要
- 目前存在的去雨网络存在大量的训练参数,不利于移动端的落地使用
- 利用特殊领域的知识简化学习过程:
- 引入高斯拉普拉斯图像金字塔分解技术,所以在每一级上的学习任务可以简化为参数量较少的浅层网络
- 利用递归和残差网络模块,所以在参数量少于8000时也能实现目前最好的去雨效果
引言
雨天是常见的天气系统,不仅影响人们的视觉,也影响着计算机视觉系统,如:自动驾驶、监控系统等。因为光的折射和散射,图像中的物体容易被雨丝模糊和遮挡。当遇到大雨时,稠密的雨丝将使得这种现象更为严重。因为目前的计算机视觉系统的输入设定是干净清晰度的图像,所以模型的精准度在雨天时将很容易退化。所以,设计高效且有用的去雨算法对于许多应用的落地是十分重要的。
相关的工作
-
视频去雨:可以利用相邻帧时间的时空信息,如利用相邻帧之间的平均密度来从静态背景中去雨。有以下方法:
- 在傅里叶域进行,使用高斯混合模型、低秩逼近、通过矩阵完成
- 将雨丝划分为稀疏区和密集区,然后利用基于矩阵分解的算法
- 基于补丁的高斯混合矩阵
-
单帧图片去雨:单帧去雨无法利用相邻帧信息,所以比视频去雨更加困难。有以下方法:
- 使用内核、低秩逼近、字典学习
- 核回归和非局部均值滤波器
- 将图像分为高频和低频部分,对高频部分使用基于稀疏编码的字典学习来分离和去雨
- 从高频部分进行自学习去雨
- 区分性编码:通过迫使雨层的稀疏向量稀疏化,目标函数可以解决将背景和雨丝分离的问题
- 混合模型和局部梯度下降
- 高斯混合模型
GMMs:背景层从自然图像中学习,雨层从带雨图像中学习 - 可变方向乘法器
ADMM - 基于卷积神经网络的深度学习方法
本文贡献
- 提出
LPNet模型,该模型参数量少于8k,相较于以往的深层神经网络,更有利于在移动端的应用落地。 - 利用特殊领域的知识简化学习过程
- 首次采用拉普拉斯金字塔模块来分解降级图片和有雨图片到不同的网络层次
- 使用递归模块和残差模块建立子网络来重建去雨图像的每层级的高斯金字塔
- 根据不同层级的物理特性采用特殊
Loss函数 - 实现的目前最好的去雨效果,在其他计算机视觉领域也有很强的可应用性
LPNet网络模型

Motivation
- 雨丝会被物体边缘和背景遮挡,所以很难在图像域进行学习,但是可以在高频信息上学习,因为高频部分主要包含了雨丝和物体边缘信息而不带有图像背景的干扰
- 此前为了实现以上操作,利用导引滤波器来获取高频信息作为网络输入,然后进行去雨在进行背景融合,但是在很细的雨丝上很难提取出高频信息
- 基于以上分解的想法 ,提出了轻量级金字塔神经网络简化训练过程,同时减少参数量
Stage I : 拉普拉斯金字塔
拉普拉斯金字塔的获取要通过高斯金字塔的运算,就是通过高斯下采样后再通过拉普拉斯上采样,在于原图相减来获得高频残差 👉《拉普拉斯金字塔与高斯金字塔的关系》
选择传统拉普拉斯金字塔的优点:
- 背景去除,所以网络只需要处理高频信息
- 利用每层学习的稀疏性
- 使每层学习更像是恒等映射
identity mapping - 在
GPU上容易进行计算
Stage II : 子网络结构
对于每一层级,都是相同的网络结构,只是卷积核kernel数量会根据不同层次特征来进行数量上的调整,主要采用residual learning和recursive blocks
- 特征提取
- 递归模块
recursive blocks:利用参数共享到其他几个recursive blocks来实现减少训练参数量,主要应用了每一个block采用三个卷积如下:
为了便于前向传播和反向求导就计算,利用残差模块来将输入与递归模块输出相加:
- 高斯金字塔重建:
以上公式为拉普拉斯金字塔的输出,则相应的高斯金字塔重建结果为:
因为每层的输出应该≥0,所以应有x=max(0,x)即ReLU函数
最终输出的去雨图像为
Loss Function
-
MSE(L2):由于平方惩罚在图像边缘上的训练较差,生成的图像会过于平滑 -
所以,对不同的网络层级采用不同的
Loss来适应不同的网络特征 -
L1 + SSIM:因为更好的图像细节和雨丝存在于更低层的金字塔网络中(如Fig 3),所以使用SSIM来训练相应的子网络来保留更多的高频信息 -
L1:因为在更高层的金字塔网络中存在更大的物体结构和平滑背景区域,因此仅使用L1 Loss来更新网络参数

去除Batch Normalization层
- 加入
BN层是为了使得训练的特征映射服从高斯分布(正态分布) - 但是拉普拉斯金字塔低层数据是稀疏的
(如Fig3直方图),本身比较容易处理,所以不需要BN层约束 - 去除
BN层后使得模型更加灵活且参数量更少
参数设置
-
固定的平滑内核
[0.0625,0.25,0.375,0.25,0.0625]用于拉普拉斯金字塔的构建与高斯金字塔的重建 -

-
如
Fig3,雨丝在更低层级,高层级更接近于特征映射,所以更高层只需要更少的训练参数即可,故从低层级到高层级,网络核数递减[16, 8, 4, 2, 1]。在最高一层,图像是很小且平滑的,雨丝仍然存在于高频部分,但是其学习更像是简单的全局对比自适应学习。 -
如
Fig5,通过对于Rainy img和Our Result的每一级,可以看得到:雨丝仍然在低层级,然而高层级几乎相同。可见,在更高层去除多余的核是必要的

实验参数
dataset:人工合成1800张大雨图像 + 200张小雨图像optimizer:Adammini-batch size: 10learning rate:0.001epochs:3
实验结果
通过对多个模型在人工合成雨图[大雨、小雨]、真实世界雨图、去雾方面进行对比,主要比较标准:主观图像输出的视觉比较、量化比较(主观评价分、PSNR、SSIM)






论文其他内容
由于论文中心思想就是上面部分,虽然其他思想也有提及,但不作为核心
LPNet在使用更多的网络参数时,可以表现出更佳效果。但为了轻量级应用实施,所以没加skip connection有利于前向传播及反向求导SSIM Loss基于局部图像特征:局部对比度、亮度、细节。更加符合人眼系统。LPNet也适用于其他计算机视觉任务,如去噪、去雾等领域- 由于网络是轻量级的,所以可作为其他计算机视觉任务的预处理:在下雨天的目标检测上先使用
LPNet去雨网络 - 视觉效果更好了,但是
PSNR却更低了





浙公网安备 33010602011771号