摘要: 最近做吞吐量调试涉及到输入batch_size的设置,为了把算力和显存用起来,同时不触发out of memory,需要提前估计大模型推理过程中的显存占用,我参考了MindIE官网的这个文档完成了估计:https://www.hiascend.com/document/detail/zh/mindi 阅读全文
posted @ 2025-06-22 21:26 AI布道Mr-Jin 阅读(206) 评论(0) 推荐(1)
摘要: 最近和开发者做了很多DeepSeek-R1模型相关的推理项目,这两天抽时间把hugging face上面的源码拉下来仔细看了一遍,在这里做一个分享。主要是解析MOE部分的代码,包括EP并行的代码实现。 整体结构 查看hugging face上面的modeling_deepseek.py文件和conf 阅读全文
posted @ 2025-06-20 15:15 AI布道Mr-Jin 阅读(336) 评论(0) 推荐(0)
摘要: 其实在DeepSeek-R1爆火之前,DeepSeek V2在我们行业就已经妇孺皆知了,它独特的MOE结构值得研究一下。这篇文章是基于 ZOMI酱 的2个视频写的,这2个视频讲的很好,建议大家都学习一下:《MOE终于迎来可视化解读!傻瓜都能看懂MoE核心原理!》和《使用昇腾NPU手撕MoE单机版代码 阅读全文
posted @ 2025-04-21 12:27 AI布道Mr-Jin 阅读(239) 评论(0) 推荐(0)
摘要: MindIE是昇腾自研推理框架,本实验手册可指导小白用户快速掌握MindIE在LLM(large language model)场景的基本功能,包括:大模型推理功能测试、大模型性能测试、大模型精度测试、服务化推理部署、benchmark测试等。 1 实验准备 1.1 软硬件环境 本实验使用的设备是8 阅读全文
posted @ 2025-04-07 17:11 AI布道Mr-Jin 阅读(303) 评论(0) 推荐(0)
摘要: ​ 最近有很多朋友都在部署deepseek模型,而且都用到了模型量化这个功能,目的是减少显存占用、提升推理速度。 上图是w8a8量化算法流程,主要包含4步: ①,使用昇腾 msmodelslim 仓库提供的量化接口对原始模型权重进行量化,生成int8格式的权重文件,以及后续在推理的时候要用到的激活值 阅读全文
posted @ 2025-03-31 10:19 AI布道Mr-Jin 阅读(208) 评论(0) 推荐(0)