会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
muzinan110
博客园
首页
新随笔
联系
订阅
管理
2024年3月20日
大模型推理框架 vLLM
摘要: vLLM是一个开源的大模型推理加速框架,通过PagedAttention高效地管理attention中缓存的张量,实现了比HuggingFace Transformers高14-24倍的吞吐量,就像在操作系统中管理CPU虚拟内存一样 NVIDIA FasterTransformer (FT) 是一个
阅读全文
posted @ 2024-03-20 11:20 muzinan110
阅读(1380)
评论(0)
推荐(0)
公告