摘要: 【GiantPandaCV导语】基于Transformer的骨干网络,同时使用卷积与自注意力机制来保持全局性和局部性。模型在ResNet最后三个BottleNeck中使用了MHSA替换3x3卷积。属于早期的结合CNN+Transformer的工作。简单来讲Non-Local+Self Attenti 阅读全文
posted @ 2021-12-27 14:45 pprp 阅读(520) 评论(0) 推荐(0) 编辑