0609 每日文献阅读 打卡

Read Data:0609

Publication: CVPR 2021

Title: EfficientNetV2: Smaller Models and Faster Training

Participants: Mingxing Tan , Quoc V. Le

Aim:

在保持参数效率的同时提高训练速度。

Research Question:

EfficientNet存在以下问题:

(1)使用非常大的图像尺寸进行训练是缓慢的;(2)卷积深度在早期层是慢的。(3)同等地扩大每个阶段是次优的。

Method:

设计了一个添加Fused-MBConv的搜索空间,并应用NAS和缩放来联合优化模型精度、训练速度和参数大小。训练可以通过在训练过程中逐步增加图像大小来进一步加速。

对于第一个问题:一个简单的改进就是应用. FixRes (Touvron et al., 2019),通过使用较小的图像大小进行训练,而不是用于推理。如表2所示,图像尺寸越小,计算量越少,批量越大,训练速度提高2.2倍。

对于第二个问题,在1-3阶段早期应用fuse- mbconv可以提高训练速度,在参数和FLOPs上的开销较小,但如果我们将所有块替换为fuse- mbconv(阶段1-7),则会显著增加参数和FLOPs,同时也会减慢训练速度。找到MBConv和fuse -MBConv这两个构建块的正确组合并非易事,这促使我们利用神经结构搜索来自动搜索最佳组合。

对于第三个问题,稍微修改了缩放规则,并将最大图像大小限制为一个较小的值。

Results:

通过在相同的ImageNet21k上进行预训练,我们的EfficientNetV2在ImageNet ILSVRC2012上达到了87.3%的top-1准确率,在使用相同的计算资源训练5 -11倍的同时,比最近的ViT准确率高出2.0%,而体积小了6.8倍。

Discussion:

 

 

 

Conclusion:

本文提出了高效网络v2,一个新的家族更小和更快的图像识别神经网络。我们的EfficientNetV2通过训练感知NAS和模型缩放进行了优化,显著优于以前的模型,同时在参数方面速度更快、效率更高。为了进一步加快训练速度,我们提出了一种改进的渐进学习方法,在训练过程中共同增加图像大小和正则化。

Further:

 

 

 

Ref:

贡献:

  1. 本文推出了EfficientNetV2,这是一个更小更快的新系列机型。通过我们的训练感知NAS和扩展发现,EfficientNetV2在训练速度和参数效率方面都优于以前的模型。
  2. 本文提出了一种改进的渐进学习方法,它可以随着图像大小自适应地调整正则化。我们表明,它加快了训练,同时提高了准确性。
  3. 在ImageNet上演示了高达11倍的训练速度和高达6.8倍的参数效率,CIFAR, Cars, Flowers数据集,比现有技术。

 

 

 

posted on 2021-06-09 13:38  Lf&x&my  阅读(86)  评论(0)    收藏  举报