会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Dsp Tian
博客园
首页
新随笔
联系
订阅
管理
[置顶]
matlab练习索引
摘要: 这里置顶一个索引吧,方便所有人查找。 基础与技巧: matlab练习程序(Schur补) matlab练习程序(正交分解) matlab练习程序(GPU加速) matlab练习程序(生成gif图片) matlab练习程序(克莱姆法则解方程) matlab练习程序(读取列不一致的数据) matlab练
阅读全文
posted @ 2021-01-27 21:45 Dsp Tian
阅读(4929)
评论(0)
推荐(6)
2025年10月8日
【Python】调用C++
摘要: Python 调用 C++ 模块通常有三种方法: 一、直接调用动态库:通过系统原生的 .so(Linux)或 .dll(Windows)文件进行调用。 二、使用 pybind11:借助这一强大的 C++/Python 绑定库,可以便捷地导出 C++ 函数和类。 三、使用 PyTorch Extens
阅读全文
posted @ 2025-10-08 15:38 Dsp Tian
阅读(19)
评论(0)
推荐(0)
2025年10月2日
深度学习(Grad-CAM)
摘要: 之前有学习过输出 CNN 的特征图,不过输出的图不能很直观的表示 CNN 关心的图像重点,Grad-CAM则能比较形象的展示这点。 Grad-CAM 的全称是 Gradient-weighted Class Activation Mapping,即梯度加权类激活映射。 它是一种可视化技术,用于解释和
阅读全文
posted @ 2025-10-02 11:55 Dsp Tian
阅读(123)
评论(0)
推荐(0)
2025年9月30日
深度学习(CVAE)
摘要: 自编码器这类模型有下面几个: 自编码器(AE):目标是压缩与重建。它是一个判别模型,目标是学习数据的高效表示,主要用于降维、去噪和数据压缩,而不是生成新数据。 变分自编码器(VAE): 学习数据的概率分布并生成。它是一个生成模型。它的关键突破是让隐变量 z 服从一个标准的概率分布(通常是高斯分布),
阅读全文
posted @ 2025-09-30 11:19 Dsp Tian
阅读(84)
评论(0)
推荐(0)
2025年9月20日
深度学习(DBBNet重参数化)
摘要: DBBNet重参数化是ACNet的升级版本,又可以叫做ACNetV2。 结构如下,训练时将多个结构并联,推理时整合为一个卷积层: 我实现时发现两个卷积做串联再重参数无法保证输入输出张量一样大,最后参考了原始作者代码发现他将BN层改造了一下,从而保证张量大小一致。 串联两个卷积再做重参数可以参考这篇文
阅读全文
posted @ 2025-09-20 19:59 Dsp Tian
阅读(12)
评论(0)
推荐(0)
深度学习(视觉注意力SeNet/CbmaNet/SkNet/EcaNet)
摘要: 这些网络提供了一种即插即用的注意力模块,可以嵌入到现有的主流架构(如ResNet, VGG, MobileNet等)中,带来几乎无成本的性能提升。 四种网络核心思想: 1. SENet (Squeeze-and-Excitation Network): 通道注意力(Channel Attention
阅读全文
posted @ 2025-09-20 10:47 Dsp Tian
阅读(22)
评论(0)
推荐(0)
2025年8月30日
深度学习(ACNet重参数化)
摘要: 和RepVGG类似,ACNet也是通过重参数化提高推理性能。 RepVGG是将3*3结构,1*1结构和直连结构并联在一起,而ACNet是将3*3结构,3*1结构和1*3结构并联在一起,最终在推理时融合为一个3*3结构。 形式如下图: 下面代码是按照自己的理解实现的重参数化Block,分为训练和部署两
阅读全文
posted @ 2025-08-30 21:55 Dsp Tian
阅读(26)
评论(0)
推荐(0)
深度学习(RepVGG重参数化)
摘要: RepVGG的核心思想是:在训练网络时使用复杂结构以获得更优的性能,在推理网络时则将其等价转换为一个简单结构以提高速度。 网络核心结构如下图: 如果是ResNet这样的网络,短连接中间有一个非线性层,则没有办法重参数化。 所以RepVGG中将3*3结构,1*1结构和直连结构并联在一起,从而在训练时能
阅读全文
posted @ 2025-08-30 14:50 Dsp Tian
阅读(22)
评论(0)
推荐(0)
2025年8月17日
深度学习(修改onnx文件batchsize)
摘要: 如果从网上down下来的onnx文件的batchsize不是1或者是动态batchsize。 下面代码可以强行将batchsize设为1,方便推理。 代码如下: import onnx # 1. 加载原始模型 model = onnx.load("feature.onnx") # 2. 修改输入层b
阅读全文
posted @ 2025-08-17 12:39 Dsp Tian
阅读(47)
评论(0)
推荐(0)
2025年8月9日
【Python】生成git仓库贡献热力图
摘要: github上一般都有每个人的贡献热力图,不过那个图是不分仓库的。 下面代码实现了根据每个仓库统计不同贡献者的贡献热力图。 代码有一半是ai写的,自己完善了一下,功能还行,把脚本放到.git同级目录执行即可。 我把llama.cpp这个工程的热力图统计了一下,一共1232个贡献者,人数比较多,开始执
阅读全文
posted @ 2025-08-09 22:34 Dsp Tian
阅读(45)
评论(0)
推荐(0)
2025年7月28日
深度学习(onnx量化)
摘要: onnx中的动态量化和静态量化概念与pytorch中的核心思想一致,但实现工具、流程和具体api有所不同。 onnx量化通常依赖onnxrunntime来执行量化模型,并使用onnx工具库进行模型转换。 除了pytorch量化和onnx量化,实际工作中一般像英伟达、地平线、昇腾等不同的芯片都会有各自
阅读全文
posted @ 2025-07-28 20:58 Dsp Tian
阅读(233)
评论(0)
推荐(0)
下一页
公告