Ollama运行DeepSeek-R1模型问题解决
问题复现
终端输入命令ollama run deepseek-r1报错:
Error: llama runner process has terminated: signal: broken pipe
问题解决
首先查看ollama版本ollama -v
发现当前版本为0.7.1
经查找资料发现可能为ollama内存不够1或ollama版本过低2导致。
运行nvitop之后发现组内服务器有一张卡处于完全空闲状态,其他卡也没有达到全满,最多的一张显存占用也才20g。故认定应为ollama版本过低所致。
检查GitHub上ollama的最新release,发现最新版本为0.9.0,最新支持思考模型,破案了。最新更新的ollama版本才支持思考模型,于是重新执行安装脚本:
curl -fsSL https://ollama.com/install.sh | sh
该脚本会自动移除旧版本ollama并进行升级。

浙公网安备 33010602011771号