2023ICCV_Generalized Lightness Adaptation with Channel Selective Normalization

一. Motivatetion

跨域效果不好:在已知亮度的数据集上表现良好,在未知亮度的数据集上表现不好,泛化性能较差。

挑战:如何识别和亮度相关的通道并进行选择,并且获得泛化能力

归一化:从给定特征中提取不变的良好的良好特性,特别对于亮度分量

[ 归一化和亮度相关的特性:

1. 亮度一致性: 实例归一化可以确保每个通道的均值接近零,从而有助于提高特征图的亮度一致性。这意味着特征图的不同通道之间不会有很大的亮度差异,有助于模型更好地理解图像的亮度特性。
2. 对比度增强: 实例归一化可以确保每个通道的标准差接近一,从而有助于提高特征图的对比度。这意味着特征图的像素值将更接近归一化的均值,使得特征更加突出,提高了对图像细节的捕捉能力。

但是归一化不可避免的会造成信息丢失]

所以,必须找到和亮度变化敏感的通道进行归一化并保持其他通道不变,增强了泛化能力并保持特征的辨别能力。


 信息丢失:

 

二. Contribution

(1)对于如何识别与亮度相关通道,作者设计了交替训练策略

(2)对于和亮度相关的通道,作者设计了Channel Selection Normalization(CSNorm)

三. Network

 1. CSNorm包括两部分(1)Normalization (2)Differential Gating Module

对于Normalization:实例归一化是对每个样本沿着通道方向独立对各个通道进行计算

# nn.InstanceNorm2d(1, affine=True) 通道归一化
nn.InstanceNorm2d(1, affine=True)

:µ(x)和σ(x)是在每个通道和实例的空间维度上独立计算的

 此时Xn是512层,对每层进行Gating设置

2. Differentiable Gating Module

 H×W×C的特征经过自适应平均池化输入H×W×1,再经过两层的MLP,最后经过公式输出接近[0,1]的二进制数值

(1)当 

(2)当

 3. 将Normalization的每一层与Gating进行线性组合组织CSNorm

 4. 交替训练策略

 训练分为两个阶段:

Step-1:常规训练,输入低光图像,输出增强后的效果,此时不使用CSNorm,损失L1损失

Step-2:增加CSNorm,输入扰动图像,输出增强后的效果,此时不更新编码器和解码器的梯度,损失常规L1+振幅的L1

 对于扰动图像的获取:使用低光和正常光图像线性组合他们的振幅产生新振幅,相位使用低光图像的相位,新振幅和相位使用逆傅里叶变换到空域

 扰动图像展示的时候用的两张背景不同的照片,在代码中是low和gt振幅的线性组合


 

注:(1)CSNorm关注的是提高网络指标,而不是刷SOTA

  (2)CSNorm可以作为trick,即插即用

 

posted @ 2023-10-17 09:58  helloWorldhelloWorld  阅读(249)  评论(0)    收藏  举报