caffe层解读系列——BatchNorm
http://blog.csdn.net/shuzfan/article/details/52729424
之前也写过一篇介绍 Batch Normalization 的文章,原理还不是很清楚的童鞋可以移步看一下。后来看到caffe中的实现,发现还是有很大不同之处,所以这里介绍一些caffe中的BN。
—————————— 可选参数 ——————————
可选参数定义在 src\caffe\proto\caffe.proto 中,共有3个:
message BatchNormParameter {
// 如果为真,则使用保存的均值和方差,否则采用滑动平均计算新的均值和方差。
// 该参数缺省的时候,如果是测试阶段则等价为真,如果是训练阶段则等价为假。
optional bool use_global_stats = 1;
// 滑动平均的衰减系数,默认为0.999
optional float moving_average_fraction = 2 [default = .999];
// 分母附加值,防止除以方差时出现除0操作,默认为1e-5
optional float eps = 3 [default = 1e-5];
}
—————————— 前向传播 ——————————
说前向传播之前,先注意几点:
(1)均值和方差的个数:
// 如果bottom是1维的,则均值和方差个数为1,否则等于通道数
if (bottom[0]->num_axes() == 1)
channels_ = 1;
else
channels_ = bottom[0]->shape(1);
(2)均值和方差的更新:
均值和方差采用的是滑动平均的更新方式。因此,BN层共存储了3个数值:均值滑动和、方差滑动和、滑动系数和。
计算公式如下:
设滑动系数 moving_average_fraction 为 λ ,m = bottom[0]->count() / channels_,存储的三个数值(均值滑动和、方差滑动和、滑动系数和)分别为 μold,σold,sold, 当前batch计算的均值和方差为μ,σ。则:
snew=λsold+1;
μnew=λμold+μ;
对于方差,采用的是无偏估计,
σnew=λσold+mσif(m>1),m=(m−1)/m;
(3)均值和方差的使用:
caffe到目前仍然没有实现和论文原文保持一致的BN层,即没有 α和β 参数,因此更新公式就比较简单了,为每一个channel施加如下公式:
x=x−μσ;
但是需要注意的是,我们存储的是均值和方差的滑动和,因此还要做一些处理。
还是设存储的三个数值(均值滑动和、方差滑动和、滑动系数和)分别为 μold,σold,sold。
首先要计算一个缩放系数s=1/soldif(sold==0),s=1,则:
μ=s∗μold;
方差的计算还是要稍微复杂一点:
σ=s∗σold;
σ=(σ+eps)0.5
浙公网安备 33010602011771号