上一页 1 2 3 4 5 6 ··· 79 下一页
摘要: 如果从网上down下来的onnx文件的batchsize不是1或者是动态batchsize。 下面代码可以强行将batchsize设为1,方便推理。 代码如下: import onnx # 1. 加载原始模型 model = onnx.load("feature.onnx") # 2. 修改输入层b 阅读全文
posted @ 2025-08-17 12:39 Dsp Tian 阅读(91) 评论(0) 推荐(0)
摘要: github上一般都有每个人的贡献热力图,不过那个图是不分仓库的。 下面代码实现了根据每个仓库统计不同贡献者的贡献热力图。 代码有一半是ai写的,自己完善了一下,功能还行,把脚本放到.git同级目录执行即可。 我把llama.cpp这个工程的热力图统计了一下,一共1232个贡献者,人数比较多,开始执 阅读全文
posted @ 2025-08-09 22:34 Dsp Tian 阅读(93) 评论(0) 推荐(0)
摘要: onnx中的动态量化和静态量化概念与pytorch中的核心思想一致,但实现工具、流程和具体api有所不同。 onnx量化通常依赖onnxrunntime来执行量化模型,并使用onnx工具库进行模型转换。 除了pytorch量化和onnx量化,实际工作中一般像英伟达、地平线、昇腾等不同的芯片都会有各自 阅读全文
posted @ 2025-07-28 20:58 Dsp Tian 阅读(370) 评论(0) 推荐(0)
摘要: pytorch中的动态量化和静态量化是两种主要的模型量化技术,旨在通过使用低精度数据类型(如 int8)代替高精度数据类型(如 float32)来减小模型大小并加速推理。 动态量化:在模型运行时(推理时)动态计算激活(activations)的量化参数(scale 和 zero_point)。权重( 阅读全文
posted @ 2025-07-28 20:41 Dsp Tian 阅读(158) 评论(0) 推荐(0)
摘要: 在cmake构建完成后想要执行一些命令或脚本。 可以使用下面代码,这里对生成的bin做了strip操作,减少占用空间。 add_custom_command( TARGET ${PROJECT_NAME} POST_BUILD COMMAND strip exe.bin ) 阅读全文
posted @ 2025-06-24 21:55 Dsp Tian 阅读(55) 评论(0) 推荐(0)
摘要: 执行下面命令: git shortlog -sn 阅读全文
posted @ 2025-06-24 21:53 Dsp Tian 阅读(21) 评论(0) 推荐(0)
摘要: 可以尝试执行下面命令: export HF_ENDPOINT=https://hf-mirror.com 阅读全文
posted @ 2025-06-24 21:53 Dsp Tian 阅读(364) 评论(0) 推荐(0)
摘要: 在做深度学习时,很多任务backbone是不需要完全重新训练的,使用预训练权重能够加快收敛,并且性能更好。 下面使用了torchvision中的efficientnet_b0网络,网络默认会生成原图1/32大小特征图后进分类器,这里截断到生成1/16大小的特征图部分,后面可以根据需求增加新的结构。 阅读全文
posted @ 2025-06-23 20:40 Dsp Tian 阅读(98) 评论(0) 推荐(0)
摘要: 1. 找到这个文件:C:\Users\xxx\AppData\Roaming\Code\User\settings.json 2. 增加下面配置,其中py310是conda环境: "terminal.integrated.profiles.windows": { "cmder": { "path": 阅读全文
posted @ 2025-06-14 17:51 Dsp Tian 阅读(205) 评论(0) 推荐(0)
摘要: 安装完ollama后,执行: ollama run qwen2.5vl:7b 后下载qwen2.5vl模型。 安装后可以提供本地服务,配置外部服务需要做如下修改: 1. cd到/etc/systemd/system/目录下,修改ollama.service文件。 2. 增加下面两行配置: [Serv 阅读全文
posted @ 2025-05-30 20:50 Dsp Tian 阅读(2348) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 ··· 79 下一页