摘要: # 前言 阅读全文
posted @ 2026-03-03 22:59 魔改工程师 阅读(26) 评论(0) 推荐(0)
摘要: 本文介绍Mamba YOLO,为图片物体识别提供了“又快又准”的新方案。传统CNN架构运行快但难以捕捉远距离关联物体,Transformer架构精度高但计算量呈平方级增长,而SSM虽计算量为线性级且能抓全局关联,但用于图片识别时细节定位不准。为此,Mamba YOLO做了三项关键优化:引入ODMamba骨干网络,解决自注意力的二次复杂度问题,且无需预训练;设计ODMamba宏观结构确定最佳阶段比例... 阅读全文
posted @ 2026-03-03 22:58 魔改工程师 阅读(10) 评论(0) 推荐(0)
摘要: 本文介绍Mamba YOLO,为图片物体识别提供了“又快又准”的新方案。传统CNN架构运行快但难以捕捉远距离关联物体,Transformer架构精度高但计算量呈平方级增长,而SSM虽计算量为线性级且能抓全局关联,但用于图片识别时细节定位不准。为此,Mamba YOLO做了三项关键优化:引入ODMamba骨干网络,解决自注意力的二次复杂度问题,且无需预训练;设计ODMamba宏观结构确定最佳阶段比例... 阅读全文
posted @ 2026-03-03 22:57 魔改工程师 阅读(123) 评论(0) 推荐(0)
摘要: 本文介绍Mamba YOLO,为图片物体识别提供了“又快又准”的新方案。传统CNN架构运行快但难以捕捉远距离关联物体,Transformer架构精度高但计算量呈平方级增长,而SSM虽计算量为线性级且能抓全局关联,但用于图片识别时细节定位不准。为此,Mamba YOLO做了三项关键优化:引入ODMamba骨干网络,解决自注意力的二次复杂度问题,且无需预训练;设计ODMamba宏观结构确定最佳阶段比例... 阅读全文
posted @ 2026-03-03 22:55 魔改工程师 阅读(41) 评论(0) 推荐(0)
摘要: 本文介绍了Token Statistics Self\-Attention(TSSA)机制,并将其集成到YOLOv11中。传统自注意力计算复杂度高,TSSA进行了范式转变,基于token统计特征实现高效注意力交互。它通过“算法展开”推导得出,以“最大编码率降低”为目标,实现特征学习。TSSA包含动态分组和低秩投影优化两步创新,具备线性复杂度。我们将TSSA代码集成到YOLOv11的C2PSA模块中... 阅读全文
posted @ 2026-03-03 22:54 魔改工程师 阅读(44) 评论(0) 推荐(0)
摘要: 本文介绍了多尺度线性注意力机制MSLA,并将其集成进YOLOv11。现有基于CNN和Transformer的医学图像分割方法存在局限性,为解决这些问题,我们提出了MSLAU\-Net架构,其中MSLA通过并行多尺度特征提取和低复杂度线性注意力计算,捕获细粒度局部细节与全局长程依赖。我们将MSLA的代码集成到YOLOv11中,创建C2PSA\_MSLA模块,并在tasks文件中进行注册。实验证明,Y... 阅读全文
posted @ 2026-03-03 22:53 魔改工程师 阅读(15) 评论(0) 推荐(0)
摘要: 本文介绍了新型视觉适配器微调方法Mona,并将其集成到YOLOv11中。传统全参数微调成本高、存储负担重且有过拟合风险,现有PEFT方法性能落后。Mona仅调整5%以内的骨干网络参数,在多个视觉任务中超越全参数微调。其核心亮点包括参数效率高、性能突破和即插即用。适配器模块包含降维、多认知视觉滤波器等单元,通过深度可分离卷积和多尺度卷积核处理视觉信号,还加入分布适配层优化输入分布。我们将Mona集成... 阅读全文
posted @ 2026-03-03 22:52 魔改工程师 阅读(18) 评论(0) 推荐(0)
摘要: 本文提出了用于低分辨率图像分割的MaskAttn \- UNet框架,并将其核心的掩码注意力机制集成到YOLOv11中。传统U \- Net类模型难以捕捉全局关联,Transformer类模型计算量大,而掩码注意力机制通过可学习的掩码,让模型选择性关注重要区域,融合了卷积的局部效率和注意力的全局视野。其工作流程包括特征适配、掩码生成、定向注意力计算和特征融合。我们将掩码注意力机制代码集成到YOLO... 阅读全文
posted @ 2026-03-03 22:50 魔改工程师 阅读(18) 评论(0) 推荐(0)
摘要: 本文介绍了高效判别频域前馈网络(EDFFN),并将其集成到YOLOv11中。EDFFN是为解决图像复原中局部信息表征不足和频域计算成本过高问题而提出的。传统方法存在SSM全局信息偏向性和频域FFN高计算成本的问题,EDFFN通过将频域操作位置从FFN中间层迁移到末端,降低了计算成本并保留了性能。其结构包括特征投影与激活、降维与频域转换、判别性频域筛选、逆变换与特征融合。我们将EDFFN集成到YOL... 阅读全文
posted @ 2026-03-03 22:49 魔改工程师 阅读(17) 评论(0) 推荐(0)
摘要: 本文介绍了动态混合层(DML),并将相关改进模块集成进YOLOv11。DML是SRConvNet核心组件,用于解决轻量级图像超分辨率任务中特征捕捉和通道适应性问题。它通过通道扩展拆分、多尺度动态深度卷积、通道洗牌与融合等步骤,实现多尺度局部信息聚合和通道自适应增强。DML的动态卷积具有内容感知适配和分组共享效率优势,多尺度设计能覆盖全尺度图像细节。我们将DML相关模块集成到YOLOv11,注册并配... 阅读全文
posted @ 2026-03-03 22:47 魔改工程师 阅读(23) 评论(0) 推荐(0)
摘要: 本文介绍了 DiffCLIP,一种将差分注意力机制集成到 CLIP 架构的视觉 \- 语言模型,并将其应用于 YOLOv11。差分注意力机制通过计算两个互补注意力分布的差值,抵消无关信息干扰。单头差分注意力将 Q 和 K 拆分,分别计算注意力分布后做差值融合;多头差分注意力则每个头独立执行差分操作后聚合输出。关键参数 λ 可动态调控噪声抵消强度。我们将 DiffAttention 代码集成到 YO... 阅读全文
posted @ 2026-03-03 22:46 魔改工程师 阅读(25) 评论(0) 推荐(0)
摘要: 基于Transformer的网络通过利用空间或通道维度的自注意力机制,在图像去雨等低层视觉任务中取得了优异性能。然而,不规则的雨纹模式和复杂的几何重叠对单一范式架构提出了挑战,亟需一种统一框架来融合互补的全局\-局部与空间\-通道表征。为此,我们提出了一种新颖的跨范式表征与对齐Transformer(Cross Paradigm Representation and Alignment Trans... 阅读全文
posted @ 2026-03-03 22:44 魔改工程师 阅读(12) 评论(0) 推荐(0)
摘要: # 前言 阅读全文
posted @ 2026-03-03 22:43 魔改工程师 阅读(8) 评论(0) 推荐(0)
摘要: # 前言 阅读全文
posted @ 2026-03-03 22:42 魔改工程师 阅读(46) 评论(0) 推荐(0)
摘要: # 前言 阅读全文
posted @ 2026-03-03 22:41 魔改工程师 阅读(19) 评论(0) 推荐(0)
摘要: # 前言 阅读全文
posted @ 2026-03-03 22:40 魔改工程师 阅读(14) 评论(0) 推荐(0)
摘要: # 前言 阅读全文
posted @ 2026-03-03 22:38 魔改工程师 阅读(13) 评论(0) 推荐(0)
摘要: # 前言 阅读全文
posted @ 2026-03-03 22:37 魔改工程师 阅读(11) 评论(0) 推荐(0)
摘要: # 前言 阅读全文
posted @ 2026-03-03 22:36 魔改工程师 阅读(8) 评论(0) 推荐(0)
摘要: # 前言 阅读全文
posted @ 2026-03-03 22:34 魔改工程师 阅读(13) 评论(0) 推荐(0)
摘要: 本文介绍了一种在YOLOv11目标检测模型中引入高效解码器模块EMCAD的创新方法,以提升模型在资源受限场景下的性能与效率。EMCAD由多个模块构成,其中核心的EUCB(高效上卷积块)通过上采样、深度可分离卷积、激活归一化和通道调整等操作,兼顾了特征质量与计算成本。实验结果显示,该模块在显著减少参数与FLOPs的同时仍具备优异性能。文章还提供了完整的YOLOv11模型集成流程、配置和训练实战。 阅读全文
posted @ 2026-03-03 22:32 魔改工程师 阅读(30) 评论(0) 推荐(0)
摘要: # 前言 阅读全文
posted @ 2026-03-03 22:31 魔改工程师 阅读(9) 评论(0) 推荐(0)
摘要: # 前言 阅读全文
posted @ 2026-03-03 22:30 魔改工程师 阅读(30) 评论(0) 推荐(0)
摘要:  阅读全文
posted @ 2026-03-03 22:26 魔改工程师 阅读(27) 评论(0) 推荐(0)