避坑指南完整版:OpenClaw 连接 Ollama 详细实战教程
前言
我为了用 OpenClaw + Ollama 做本地 AI 编程助手,一开始直接选了
qwen2.5-coder:32b 代码模型,结果反复出现 AI 不回复(NO_REPLY),折腾了超久。这篇博客只写实战、不废话,把模型怎么选、为什么不回复、日志在哪看、看什么关键字全部讲清楚,让你一次配通、永不踩坑。
一、环境说明
- Ollama 机器:192.168.1.200(局域网主机)
- OpenClaw 机器:192.168.1.208(Ubuntu 虚拟机)
- 最大坑:代码专用模型(coder 系列)在 OpenClaw 里不能聊天,只会返回 NO_REPLY
二、OpenClaw 连接 Ollama 完整步骤(直接照抄)
1. Ollama 允许局域网访问(必须做)
bash
运行
# 在 Ollama 主机执行
ollama serve
2. OpenClaw 初始化配置(新手专用)
bash
运行
openclaw configure
配置选择顺序:
- 只勾选 Model,最后勾选 Continue
- Model provider → ollama
- Ollama mode → Local(远程模型一律选 Local,不要选 Cloud)
- Ollama base URL →
http://192.168.1.200:11434(你的 Ollama 地址) - 模型列表:务必选通用对话模型,不要选 coder 模型
3. 设置默认模型(命令行方式)
bash
运行
# ✅ 正确:通用对话模型(推荐)
openclaw models set ollama/qwen2.5:7b-instruct-q4_K_M
# ❌ 错误:代码专用模型(会 NO_REPLY)
# openclaw models set ollama/qwen2.5-coder:7b-instruct-q4_K_M
4. 重启网关
bash
运行
openclaw gateway restart
5. 检查状态
bash
运行
openclaw gateway status
显示
running 即成功。三、Ollama 模型怎么选?原则是什么?(重点中的重点)
很多人不知道模型名字里的含义,乱选导致 NO_REPLY。
模型名字 = 选择依据,不用看复杂介绍,看后缀即可。
模型命名规则(Ollama 通用)
1. 看有没有 coder → 决定能不能聊天
-
含
coder:- 示例:
qwen2.5-coder:7b、qwen2.5-coder:32b - 定位:纯代码模型
- 只做:代码生成、代码解释、代码补全
- OpenClaw 表现:日常对话直接返回 NO_REPLY
- 结论:不能当默认对话模型!
- 示例:
-
不含
coder:- 示例:
qwen2.5:7b-instruct、llama3.2:7b-instruct - 定位:通用对话模型
- 能做:聊天、问答、写作、简单代码
- OpenClaw 表现:正常回复
- 结论:必须用这类做默认模型!
- 示例:
2. 看有没有 instruct → 决定是否适合对话
- 含
instruct:指令微调模型 → 适合聊天、交互 - 不含
instruct:基座模型 → 不适合对话,容易乱答
3. 数字代表大小(7b、14b、32b)
- 7b:轻量快速,适合日常使用
- 32b:大参数,代码强,但更吃资源
模型选择终极原则(背下来)
- OpenClaw 日常交互 → 必须选:不带 coder、带 instruct 的模型
- 只想写代码 → 可以用 coder 模型,但不要用来聊天
- 想聊天 + 写代码两不误 → 主模型用通用版,需要代码时临时切换 coder
推荐模型清单(直接复制)
✅ 通用对话(推荐默认)
plaintext
qwen2.5:7b-instruct-q4_K_M
✅ 代码专用(只在写代码时切换)
plaintext
qwen2.5-coder:7b-instruct-q4_K_M
qwen2.5-coder:32b-instruct-q4_K_M
四、AI 不回复?日志排查方法(一步定位)
1. 日志路径(固定位置)
plaintext
/home/vboxuser/.openclaw/agents/main/sessions/xxxx.jsonl
每个会话一个 jsonl 文件,文件名是会话 ID。
2. 查看日志命令
bash
运行
cat /home/vboxuser/.openclaw/agents/main/sessions/你的会话文件.jsonl
3. 关键搜索内容(直接搜这个)
❌ 异常:模型不回复
json
"text":"NO_REPLY"
99% 原因:用了 coder 代码模型聊天
✅ 正常:模型回复
json
"text":"你好!有什么我可以帮你的吗?"
4. NO_REPLY 唯一真实原因
OpenClaw 发送了普通聊天内容 → coder 模型判定非代码 → 拒绝回答 → 返回 NO_REPLY
五、完整排错流程(遇到问题按这个走)
- 网关没运行:
openclaw gateway restart - 配置错误:
openclaw configure重配 Ollama 地址 - 不回复:看日志是否出现 NO_REPLY → 立刻换通用模型
- 旧会话坏了:网页端新建聊天,不要用旧会话
- 模型不兼容:记住 coder 模型不能聊天
六、总结(最核心三句话)
- OpenClaw + Ollama 配置不难,难在模型选择
- 带 coder 的模型 = 代码专用 = 聊天会 NO_REPLY
- 日志看 jsonl 文件,搜 NO_REPLY 直接定位问题
按这篇教程操作,OpenClaw 连接 Ollama 一次成功,再也不用反复踩坑!

浙公网安备 33010602011771号