10 2021 档案

摘要:1、《BAM: Bottleneck Attention Module》 在这篇文章中,作者提出了新的Attention模型——瓶颈注意模块,通过分离的两个路径channel和spatial得到attention map,减少计算开销和参数开销。 针对输入特征F,通过两个通道,一个是通道Mc一个是空 阅读全文
posted @ 2021-10-24 21:21 古幽月兮 阅读(281) 评论(0) 推荐(0)
摘要:深度学习、带卷积、SKNet 阅读全文
posted @ 2021-10-23 21:21 古幽月兮 阅读(154) 评论(0) 推荐(0)
摘要:1、MobileNet 随着对准确度的要求越来越高,网络也越来越深。因此既能保持模型性能(accuracy)也能降低模型大小(parameters size)、同时提升模型速度(speed, low latency)的MobileNet应运而生。 MobileNet的基本单元是深度可分离卷积(dep 阅读全文
posted @ 2021-10-03 20:37 古幽月兮 阅读(254) 评论(0) 推荐(0)