Loading

Ollama运行DeepSeek-R1模型问题解决

问题复现

终端输入命令ollama run deepseek-r1报错:
Error: llama runner process has terminated: signal: broken pipe

问题解决

首先查看ollama版本ollama -v
发现当前版本为0.7.1
经查找资料发现可能为ollama内存不够1或ollama版本过低2导致。
运行nvitop之后发现组内服务器有一张卡处于完全空闲状态,其他卡也没有达到全满,最多的一张显存占用也才20g。故认定应为ollama版本过低所致。
检查GitHub上ollama的最新release,发现最新版本为0.9.0,最新支持思考模型,破案了。最新更新的ollama版本才支持思考模型,于是重新执行安装脚本:
curl -fsSL https://ollama.com/install.sh | sh
该脚本会自动移除旧版本ollama并进行升级。

posted @ 2025-06-07 21:50  kozumi  阅读(543)  评论(0)    收藏  举报