会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
CD Yang
博客园
首页
新随笔
联系
管理
订阅
2025年2月27日
HF 格式模型导入 Ollama 进行推理
摘要: 之前训好的模型,推理服务是用 vllm 跑的,不过 vllm 会长期占用显存,在团队内资源紧张的情况下,不能长期启动服务。不巧的是时不时会需要访问这个服务,手动维护就很麻烦。 正好 Ollama 可以根据请求自动加载、释放模型,就打算把模型迁移到 Ollama 上进行推理。这里记录一下处理过程: 先
阅读全文
posted @ 2025-02-27 21:33 zion03
阅读(249)
评论(0)
推荐(0)
公告