摘要: 前言 本文介绍了Token Statistics Self-Attention(TSSA)机制,并将其集成到YOLOv11中。传统自注意力计算复杂度高,TSSA进行了范式转变,基于token统计特征实现高效注意力交互。它通过“算法展开”推导得出,以“最大编码率降低”为目标,实现特征学习。TSSA包含 阅读全文
posted @ 2025-12-25 22:49 魔改工程师 阅读(85) 评论(0) 推荐(0)
摘要: 前言 本文提出部分注意力卷积(PATConv)机制,并将其集成到YOLOv11中。传统神经网络中,卷积计算密集,注意力机制全局计算冗余,此前的“部分卷积”会丢失未计算通道的特征价值。PATConv通过“通道拆分 - 并行处理 - 结果拼接”的逻辑,给不同通道分配“擅长的任务”,兼顾局部与全局特征。基 阅读全文
posted @ 2025-12-25 22:48 魔改工程师 阅读(24) 评论(0) 推荐(0)
摘要: 前言 本文提出信息整合注意力(IIA)机制,并将其集成到YOLOv11中用于遥感图像语义分割。传统CNN难捕捉全局信息,Transformer计算复杂,现有基于Mamba的方法未充分考虑局部信息。IIA利用图像特征空间位置不变性,先融合编解码器特征,再从高度和宽度方向提取序列信息,生成注意力权重因子 阅读全文
posted @ 2025-12-23 22:40 魔改工程师 阅读(40) 评论(0) 推荐(0)
摘要: 前言 本文提出信息整合注意力(IIA)机制,并将其集成到YOLOv11中用于遥感图像语义分割。传统CNN和Transformer方法分别存在难以捕捉全局信息和计算复杂的问题,现有基于Mamba的方法也未充分考虑局部信息。IIA机制利用图像特征空间位置不变性,通过基础信息融合、双方向序列提取和动态权重 阅读全文
posted @ 2025-12-23 22:38 魔改工程师 阅读(36) 评论(0) 推荐(0)
摘要: 前言 本文提出了用于低分辨率图像分割的MaskAttn - UNet框架,并将其核心的掩码注意力机制集成到YOLOv11中。传统U - Net类模型难以捕捉全局关联,Transformer类模型计算量大,而掩码注意力机制通过可学习的掩码,让模型选择性关注重要区域,融合了卷积的局部效率和注意力的全局视 阅读全文
posted @ 2025-12-22 23:01 魔改工程师 阅读(70) 评论(0) 推荐(0)
摘要: 前言 本文提出了用于低分辨率图像分割的MaskAttn - UNet框架,并将其核心的掩码注意力机制集成到YOLOv11中。传统U - Net类模型难以捕捉全局关联,Transformer类模型计算量大,而掩码注意力机制通过可学习的掩码,让模型选择性关注重要区域,融合了卷积的局部效率和注意力的全局视 阅读全文
posted @ 2025-12-22 23:00 魔改工程师 阅读(13) 评论(0) 推荐(0)
摘要: 前言 本文介绍了 DiffCLIP,一种将差分注意力机制集成到 CLIP 架构的视觉 - 语言模型,并将其应用于 YOLOv11。差分注意力机制通过计算两个互补注意力分布的差值,抵消无关信息干扰。单头差分注意力将 Q 和 K 拆分,分别计算注意力分布后做差值融合;多头差分注意力则每个头独立执行差分操 阅读全文
posted @ 2025-12-21 20:23 魔改工程师 阅读(22) 评论(0) 推荐(0)
摘要: 前言 本文介绍收缩 - 广播自注意力(CBSA)((Contract-and-Broadcast Self-Attention))机制,并将其集成到YOLOv11中。传统注意力机制存在黑盒难理解、计算复杂度高的问题,CBSA通过算法展开推导出本质上可解释且高效的注意力机制。它先从输入数据中选出少量代 阅读全文
posted @ 2025-12-21 20:18 魔改工程师 阅读(75) 评论(0) 推荐(0)
摘要: 必读指南 📖 | YOLOv11改进专栏简介 📌 1. 模型改进无思路?200+实战方法直接落地 针对YOLO模型改进痛点,本专栏整理200+实战验证方法,覆盖卷积层、注意力机制等核心模块。 每种方法含原理、性能分析、改进路径及实操流程,代码可直接运行,快速提升模型效果,性价比超高。 🚀 2. 阅读全文
posted @ 2025-12-19 22:22 魔改工程师 阅读(612) 评论(0) 推荐(0)
摘要: 介绍 摘要 通道或空间注意力机制在许多计算机视觉任务中表现出显著的效果,可以生成更清晰的特征表示。然而,通过通道维度缩减来建模跨通道关系可能会对提取深度视觉表示带来副作用。本文提出了一种新颖高效的多尺度注意力(EMA)模块。该模块着重于保留每个通道的信息并减少计算开销,我们将部分通道重新调整为批次维 阅读全文
posted @ 2024-11-07 22:02 魔改工程师 阅读(3074) 评论(0) 推荐(0)