摘要: 榨干H100算力!GLM-4.6V×vLLM 极致推理实战:从9B到106B MoE的全链路优化 我是大模型实验室Lab4AI,一个面向高校科研人员、AI开发者、行业用户及AIGC创作者的高性能GPU场景内容社区,持续分享火热项目实战。 最近,我完成了一个GLM-4.6V与vLLM的深度整合项目,成 阅读全文
posted @ 2026-01-07 17:29 Lab4AI大模型实验室 阅读(22) 评论(0) 推荐(0)