会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Dsp Tian
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
···
79
下一页
2025年7月28日
深度学习(pytorch量化)
摘要: pytorch中的动态量化和静态量化是两种主要的模型量化技术,旨在通过使用低精度数据类型(如 int8)代替高精度数据类型(如 float32)来减小模型大小并加速推理。 动态量化:在模型运行时(推理时)动态计算激活(activations)的量化参数(scale 和 zero_point)。权重(
阅读全文
posted @ 2025-07-28 20:41 Dsp Tian
阅读(111)
评论(0)
推荐(0)
2025年6月24日
cmake构建后执行命令
摘要: 在cmake构建完成后想要执行一些命令或脚本。 可以使用下面代码,这里对生成的bin做了strip操作,减少占用空间。 add_custom_command( TARGET ${PROJECT_NAME} POST_BUILD COMMAND strip exe.bin )
阅读全文
posted @ 2025-06-24 21:55 Dsp Tian
阅读(35)
评论(0)
推荐(0)
git查看所有人提交次数
摘要: 执行下面命令: git shortlog -sn
阅读全文
posted @ 2025-06-24 21:53 Dsp Tian
阅读(11)
评论(0)
推荐(0)
解决OSError: We couldn't connect to 'https://huggingface.co'
摘要: 可以尝试执行下面命令: export HF_ENDPOINT=https://hf-mirror.com
阅读全文
posted @ 2025-06-24 21:53 Dsp Tian
阅读(334)
评论(0)
推荐(0)
2025年6月23日
深度学习(使用torchvision预训练权重)
摘要: 在做深度学习时,很多任务backbone是不需要完全重新训练的,使用预训练权重能够加快收敛,并且性能更好。 下面使用了torchvision中的efficientnet_b0网络,网络默认会生成原图1/32大小特征图后进分类器,这里截断到生成1/16大小的特征图部分,后面可以根据需求增加新的结构。
阅读全文
posted @ 2025-06-23 20:40 Dsp Tian
阅读(67)
评论(0)
推荐(0)
2025年6月14日
win下配置vscode默认使用conda环境
摘要: 1. 找到这个文件:C:\Users\xxx\AppData\Roaming\Code\User\settings.json 2. 增加下面配置,其中py310是conda环境: "terminal.integrated.profiles.windows": { "cmder": { "path":
阅读全文
posted @ 2025-06-14 17:51 Dsp Tian
阅读(154)
评论(0)
推荐(0)
2025年5月30日
ollama部署qwen2.5vl
摘要: 安装完ollama后,执行: ollama run qwen2.5vl:7b 后下载qwen2.5vl模型。 安装后可以提供本地服务,配置外部服务需要做如下修改: 1. cd到/etc/systemd/system/目录下,修改ollama.service文件。 2. 增加下面两行配置: [Serv
阅读全文
posted @ 2025-05-30 20:50 Dsp Tian
阅读(2030)
评论(0)
推荐(0)
2025年5月20日
解决Linux下ollama安装超时
摘要: 1. 在 虾壳 - GitHub下载加速网站 GitHub Proxy加速器 这里获取加速网址。 2. 选择合适加速网址,执行下面命令: export OLLAMA_MIRROR="https://ghproxy.net/https://github.com/ollama/ollama/releas
阅读全文
posted @ 2025-05-20 21:27 Dsp Tian
阅读(328)
评论(0)
推荐(0)
2025年5月18日
深度学习(Transformer文本分类)
摘要: 之前用LSTM做了个文本分类,这次用Transformer实现相同的功能。 不过这里不再做分词了,而是根据当前学习文本构建字表。 同样也不使用BucketIterator做数据填充,而是先根据句子字符长度排序,然后同一个batch中做字符填充。 最后给了一个测试例子。 import torch im
阅读全文
posted @ 2025-05-18 17:56 Dsp Tian
阅读(32)
评论(0)
推荐(0)
2025年5月2日
深度学习(MHA、MQA、GQA)
摘要: 注意力机制中MHA,MQA和GQA是三种经典的结构: MHA:每个头有独立的Q、K、V,参数多,模型表现力强,计算成本高。 MQA:所有头共享K和V,每个头有独立的Q,参数少,计算快,但可能牺牲一定的表达能力。 GQA:折中方案,将头分成g组,每组共享K和V,平衡参数和性能。 下图比较好的展示了三种
阅读全文
posted @ 2025-05-02 21:02 Dsp Tian
阅读(203)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
···
79
下一页
公告