摘要:        
这里介绍新的一个Backbone:ConvNeXt,主要来自两篇比较老的来自Meta论文:
1、《**A ConvNet for the 2020s**》
> arXiv:2201.03545
2、《**ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders**》
> arXiv:2301.00808
两篇论文讲的都是一个模型:*ConvNeXt*。这也是证明一点:Vit效果好并不是attention本身而是因为transform的超大感受野和各种trick。因此作者也是不断借鉴Vit的操作(用斜体表示)    阅读全文
posted @ 2025-05-01 14:50
Big-Yellow-J
阅读(1918)
评论(0)
推荐(1)
        
                    
                
浙公网安备 33010602011771号