会员
周边
新闻
博问
闪存
赞助商
YouClaw
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Groot_Liu
博客园
首页
新随笔
联系
订阅
管理
2026年2月5日
vLLM 学习一:vLLM 架构
摘要: vLLM 入口(Entrypoints) vLLM 主要提供两种推理模式,分别针对高吞吐量的离线批处理和高并发的在线服务: 离线推理模式 (Offline Inference): 核心接口:直接使用 vllm.LLM 类。 工作方式:用户在 Python 脚本中实例化 LLM 类,通过 llm.ge
阅读全文
posted @ 2026-02-05 17:08 Groot_Liu
阅读(78)
评论(0)
推荐(0)
公告