vLLM推理加速学习过程
1️⃣ 基础阶段能力(必会)
-
Python / PyTorch 基础
- 能够加载大模型,执行前向推理
- 能理解 GPU 显存使用、device 管理
-
vLLM 基本使用
- 单 GPU 上运行 Qwen / LLaMA / ChatGLM 模型
- 能控制
max_context_len,max_tokens,temperature等参数 - 能加载 LoRA 微调权重
-
量化基础
- BitsAndBytes 8bit 推理
- 知道 FP16 与 INT8 对显存和速度的影响
-
batching
- 理解批处理的作用
- 能配置
batch_size/continuous batching
面试时最常问的就是“如何在显存有限的 GPU 上部署 14B/13B 模型”,基础阶段的知识就能回答清楚。
2️⃣ 优化阶段能力(加分项)
-
吞吐量和延迟优化
- 能监控 GPU / CPU / 显存
- 调整 batch size、context length 提升性能
-
流式推理 / 异步调用
- 理解 asyncio 或 fastapi 接入模型
- 知道 continuous batching 如何提高吞吐
-
简单量化调优
- 了解 INT8、FP16 的权衡
- 能在 BitsAndBytes 参数间选择最优配置
高阶
- 多 GPU / 分布式推理
- Ray 调度 / Worker 池化 / 多模型路由
- AWQ / GPTQ 深度量化(低比特、低显存优化)
- 极限吞吐量调优(streaming + batch + async)
这些技术 主要解决两个问题:
- 显存不足:单卡无法容纳超大模型(>70B)
- 高并发场景:需要同时处理大量请求,提高吞吐量
高阶学习展开
如果按照 学习优先级 排序,结合 全职学习和生产场景价值,我会建议你按以下顺序:
高阶阶段学习优先级
-
多 GPU / 分布式推理 ✅ 最高优先级
-
理由:
- 是其他高级优化的基础
- TP / PP / DP 概念和实战依赖多 GPU 环境
- 即使只学习一台机器,也能理解显存拆分、流水线、梯度同步
-
学完后,你就能理解 AWQ/GPTQ 部署在多卡上的限制 和 Ray 调度的必要性
-
-
极限吞吐量调优(streaming + batch + async)
-
理由:
- 高 QPS / 高吞吐场景必备技能
- 包括 continuous batching、流式推理、异步请求聚合
- 面试常问 “如何提高大模型推理吞吐量”
-
先学这个可以在单机或多卡上做实验,收益大、学习成本相对低
-
-
Ray 调度 / Worker 池化 / 多模型路由
-
理由:
- 主要用于 多节点 / 异构 GPU / 弹性扩缩容
- 对单机多卡或固定 GPU 数量,提升有限
- 学这个之前最好先掌握多 GPU 并行和吞吐优化,否则理解会抽象
-
可作为中后期扩展技能
-
-
AWQ / GPTQ 深度量化(低比特、低显存优化)
-
理由:
- 只在 超大模型(>70B)、显存不足、低比特需求 才显著有用
- 学习成本高,需要理解量化策略、精度损失、group size、校准数据
- 对智能客服类 14B 模型部署,通常用 BitsAndBytes 就够
-
建议最后学,作为研究 / 特殊优化选项
-
📌 总结优先级表
| 优先级 | 技能模块 | 学习理由 |
|---|---|---|
| 1 | 多 GPU / 分布式推理 | 基础+核心,高阶优化的前提 |
| 2 | 极限吞吐量调优 | 高 QPS / 高效利用 GPU,收益大 |
| 3 | Ray 调度 / Worker 池化 | 多节点 / 异构 GPU / 弹性扩展才必要 |
| 4 | AWQ / GPTQ 深度量化 | 高成本,适合极端场景或科研优化 |
💡 小结:
-
如果你目标是 面试 + 生产部署智能客服:
- 前两项学完就够用了
- 后两项可以了解概念,先不深度实践
-
如果你未来想做 大规模 LLM 服务 / 低显存极限部署 / 超大模型研究:
- 后两项可以作为加分和进阶

浙公网安备 33010602011771号