会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Lex个人随想乡
Attention before pay attention
博客园
首页
新随笔
联系
订阅
管理
2025年2月15日
KV Cache:加速LLM推理的关键
摘要: 1. KV 缓存是什么? KV 缓存(KV Cache)是一种优化大语言模型(LLM, Large Language Models)推理速度的关键技术。最近爆火的DeepSeek,其首创的MLA技术,使得KV Cache降低了93%,在大语言模型的训练和推理上有效降低了对高性能GPU的性能要求(比如
阅读全文
posted @ 2025-02-15 02:18 LexLuc
阅读(3100)
评论(0)
推荐(0)