摘要: 跨空间学习的高效多尺度注意模块 摘要 在各种计算机视觉任务中,通道或空间注意机制在产生更多可识别的特征表示方面具有显著的有效性。然而,通过通道降维来建模跨通道关系可能会对提取深度视觉表征带来副作用。 本文提出了一种新型的高效多尺度注意力(EMA)模块。为了保留每个通道上的信息和减少计算开销,我们将部 阅读全文
posted @ 2023-12-26 17:19 同淋雪 阅读(824) 评论(0) 推荐(0) 编辑
摘要: SCConv:用于特征冗余的空间和通道重建卷积 摘要 卷积神经网络(CNN)在各种计算机视觉任务中取得了显着的性能,但这是以巨大的计算资源为代价的,部分原因是卷积层提取了冗余特征。最近的工作要么压缩训练有素的大型模型,要么探索精心设计的轻量级模型。在本文中,我们尝试利用特征之间的空间和通道冗余进行 阅读全文
posted @ 2023-12-15 13:04 同淋雪 阅读(424) 评论(0) 推荐(0) 编辑
摘要: 注意力机制 一、注意力机制 人可以通过眼睛看到各种各样的事物,感知世界上的大量信息,但可以让自己免受海量信息的干扰,可以选择重要信息而忽视不重要信息。 例如一张图片,我们会把下意识把注意力集中在主体身上,而非背景。 同样,希望网络也具有这种能力,引入注意力机制是对输入进行加权再输出,希望网络关注到的 阅读全文
posted @ 2023-12-15 13:03 同淋雪 阅读(89) 评论(0) 推荐(0) 编辑
摘要: Feature map(特征图) 在CNN的每个卷积层,数据以三维形式存在。可以看成是多个二维图片叠在一起,其中每一个称为一个feature map。 在输入层,如果是灰度图片,那就只有一个feature map;如果是彩色图片,一般是三个feature map(红绿蓝)。 在其他层,层与层之间会有 阅读全文
posted @ 2023-12-15 13:00 同淋雪 阅读(175) 评论(0) 推荐(0) 编辑
摘要: C3模块 C3模块由3个Conv块构成,其中第一个Conv块的步长为2,可以将特征图的尺寸减半。第二个和第三个Conv块的步长为1。Conv块采用的都是3x3卷积核。每个Conv块之间还加入了BN层和LeakyRelu激活函数,以提高模型的稳定性和泛化能力。 在新版yolov5中,作者将Bottle 阅读全文
posted @ 2023-11-08 15:34 同淋雪 阅读(197) 评论(0) 推荐(0) 编辑
摘要: CSP结构 CSP结构通过将输入特征分为两部分,然后在这两个部分之间进行交叉连接的方法来提高神经网络的性能。CSP结构能有效的提高模型的特征表示能力,从而提高模型的准确性和泛化能力。 CSP模块包括CSP1_X模块和CSP2_X模块。 可见,ResUnit模块的shortcut参数设置为True,就 阅读全文
posted @ 2023-11-08 15:33 同淋雪 阅读(60) 评论(0) 推荐(0) 编辑
摘要: CBL模块 CBL模块为标准卷积模块,包括Conv普通卷积层、BN批量归一化层、LeakyReLU激活函数层。 阅读全文
posted @ 2023-11-08 15:32 同淋雪 阅读(61) 评论(0) 推荐(0) 编辑
摘要: 鲁棒性 鲁棒性指的是模型对于输入数据的健壮性,即模型在遇到各种不同的数据输入时,仍然能够保持高效的表现。一个鲁棒性强的模型能够在噪声、缺失数据或者其他异常情况下也能够准确地预测结果。 · 阅读全文
posted @ 2023-11-06 16:44 同淋雪 阅读(28) 评论(0) 推荐(0) 编辑
摘要: YOLO系列之YOLOv1 创新点 将目标检测当成回归问题 输入一张图像经过一次推理可以得到图像中所有目标的检测框和类别。可以端到端的训练和优化网络 优点 速度快 YOLO使用全图信息,背景错误少 泛化能力好 缺点 每个网格只能预测两个边界框和一个类别,限制了对相近目标的检测数量,尤其是密集的小目标 阅读全文
posted @ 2023-11-06 16:40 同淋雪 阅读(36) 评论(0) 推荐(0) 编辑
摘要: Params(参数量)、Model_size(模型大小)和Flops(计算量) 参数量(params): 参数的数量,通常以M为单位。 params = Kh × Kw × Cin × Cout 模型大小(模型大小): 在一般的深度学习的框架中(如PyTorch),一般是32位存储,即一个参数用32 阅读全文
posted @ 2023-11-06 16:38 同淋雪 阅读(665) 评论(0) 推荐(0) 编辑