摘要: 这里介绍新的一个Backbone:ConvNeXt,主要来自两篇比较老的来自Meta论文: 1、《**A ConvNet for the 2020s**》 > arXiv:2201.03545 2、《**ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders**》 > arXiv:2301.00808 两篇论文讲的都是一个模型:*ConvNeXt*。这也是证明一点:Vit效果好并不是attention本身而是因为transform的超大感受野和各种trick。因此作者也是不断借鉴Vit的操作(用斜体表示) 阅读全文
posted @ 2025-05-01 14:50 Big-Yellow-J 阅读(1918) 评论(0) 推荐(1)
levels of contents