(Windows + Ollama)OpenClaw 本地部署完整指南

本文档基于实际部署经验编写,旨在帮助你在 Windows 系统上从零开始搭建 OpenClaw,并连接本地 Ollama 模型(如 Qwen2.5 或 Qwen3),使其具备完整的智能体能力。文档包含了所有关键步骤以及常见问题的解决方案。

img

本文档基于实际部署经验编写,旨在帮助你在 Windows 系统上从零开始搭建 OpenClaw,并连接本地 Ollama 模型(如 Qwen2.5 或 Qwen3),使其具备完整的智能体能力。文档包含了所有关键步骤以及常见问题的解决方案。


一、环境准备
1.1 硬件要求
  • NVIDIA GPU:建议显存 ≥8GB(如 RTX 2080Ti系列),用于流畅运行 7B~14B 量化模型。

  • 内存:建议 ≥16GB(本文档使用 32GB 内存)。

  • 磁盘空间:至少 20GB 剩余空间用于存放模型文件。

1.2 软件要求
  • 操作系统:Windows 11(本文基于 Windows 11 测试)。

  • PowerShell:以管理员身份运行(部分操作需要)。

  • Node.js:≥18.0.0(用于安装 OpenClaw)。

  • Git(必选选,用于某些技能依赖)。下载地址:HTTPS://git-scm.com/。Windows 选择 64 位版本,安装时勾选 Add Git to PATH

1.3 检查工具版本

node --version   # 应显示 v18 以上
npm --version   # 应显示 8 以上

git –version  # 验证 Git

若无 Node.js,请前往 nodejs.org 下载 LTS 版本安装。


二、安装 Ollama 并下载模型
2.1 安装 Ollama

访问 ollama.com 下载 Windows 版本并安装,管理员打开powershell窗口执行(需要vpn代理FQ)

set http_proxy=http://127.0.0.1:7890
set https_proxy=http://127.0.0.1:7890
irm https://ollama.com/install.ps1 | iex

image

安装后 Ollama 会自动注册为系统服务,开机自启。

验证安装:

ollama --version
image
 
2.2 拉取基础模型(以 Qwen2.5 7B 为例)
ollama pull qwen3:8b

等待下载完成(约 5.2 GB)。

image
2.3 创建支持更大上下文窗口的模型(OpenClaw 要求 ≥16K)

OpenClaw 默认要求模型上下文窗口至少 16000 tokens,而基础模型可能只有 4096,因此需要创建自定义模型。

  1. 切换到用户目录(避免权限问题):

    cd C:\Users\<你的用户名>

     

  2. 创建 Modelfile

    @"
    FROM qwen3:8b
    PARAMETER num_ctx 32768
    "@ | Out-File -Encoding ascii Modelfile

     

  3. 查看文件内容确认

    Get-Content Modelfile

    应显示:

    FROM qwen3:8b
    PARAMETER num_ctx 32768

     

  4. 创建新模型(例如 qwen3:8b-32k):

    ollama create qwen3:8b-32k -f Modelfile

     

  5. 验证模型已创建并查看上下文参数

    ollama list                     # 应看到 qwen3:8b-32k
    ollama show qwen3:8b-32k --modelfile   # 确认包含 num_ctx 32768

注意:若创建时出现 unknown type 错误,请检查 Modelfile 是否包含不可见字符,或改用 -Encoding ascii 重新生成。


三、安装 OpenClaw
3.1 使用 npm 全局安装

npm config set registry https://registry.npmmirror.com/

npm config get registry

npm install -g openclaw

3.2 验证安装
openclaw --version

应显示类似 2026.2.22-2 的版本号。


四、配置 OpenClaw 连接本地模型
4.1 运行配置向导
openclaw onboard
4.2 按提示选择配置项
步骤操作
Model/auth provider 选择 Custom Provider(列表最后一项)
API Base URL 输入 http://127.0.0.1:11434/v1
API Key 输入任意字符串(如 ollama),不可留空
Endpoint compatibility 选择 OpenAI-compatible
Model ID 输入你创建的模型名(如 qwen2.5:7b-32k
后续问题 全部选择 Skip for now 或 No,直到完成

重要:若配置时提示 Verification failed,请先确保 Ollama 服务正在运行(可执行 ollama list 测试)。

image

 

在Telegram中创建Bot

登录网页Telegram ,并搜索 @BotFather ,选中后点击该联系人。

image

 

在对话框中输入并发送 /newbot 。按提示输入Bot名称和用户名(注意:用户名必须以“_bot”结尾)。

image

 

image

 

输入完成后会收到Token,请妥善保存好勿对外泄露,后续在OpenClaw需要进行配置。

image

 

image

 

4.3 验证配置是否成功

 

image

 

配置完成后,会显示 Web UI 地址(如 http://127.0.0.1:18789)和 token。你可以先不打开,直接进入 TUI 测试。


五、解决上下文窗口错误

首次启动 TUI 时可能会遇到:

Model context window too small (4096 tokens). Minimum is 16000.

这是因为 OpenClaw 从模型元数据中读取的上下文仍是 4096,虽然你已在 Ollama 中设置了 32768,但 OpenClaw 缓存了旧值。

5.1 手动修改配置文件

找到 OpenClaw 的两个 JSON 配置文件:

  • C:\Users\<用户名>\.openclaw\openclaw.json

  • C:\Users\<用户名>\.openclaw\agents\main\agent\models.json

用记事本打开,找到 models.providers.custom-127-0-0-1-11434.models 数组中 id 为你的模型名的对象,将 contextWindowmaxTokens 的值从 4096 改为 32768

示例修改后:

{
"id": "qwen3:8b-32k",
"contextWindow": 32768,
"maxTokens": 32768,
...
}

保存文件后完全退出 OpenClaw TUI(按 Ctrl+C),然后重新启动:

openclaw tui

此时错误应消失,AI 可以正常对话。


六 启动 TUI 并测试对话
openclaw tui

看到类似以下界面即成功:

session agent:main:main
Wake up, my friend!

输入:Launch the Windows Notepad application,AI 应打开记事本。

image

 


七、安装常用技能(扩展功能)

OpenClaw 通过技能(Skills)实现各种外部操作。目前你已就绪的技能可通过 openclaw skills list 查看。下面推荐安装一些基础且 Windows 兼容的技能。

7.1 使用 clawhub 管理技能

首先安装技能管理工具本身(只需一次):

npx clawhub install clawhub

之后你就可以在 TUI 中让 AI 帮你安装技能(例如说“安装 github 技能”),不过我们仍用命令行操作。

7.2 安装推荐技能
# 文件操作(让 AI 能保存文件到工作区)
npx clawhub install filesystem-mcp   # 或 clawdbot-filesystem

# GitHub 集成(需安装 gh CLI)
npx clawhub install github

# PDF 编辑
npx clawhub install nano-pdf

# 笔记同步
npx clawhub install notion
npx clawhub install obsidian

# 任务管理
npx clawhub install trello

# 摘要生成(支持 URL、本地文件)
npx clawhub install summarize

# 天气查询(无需 API)
npx clawhub install weather

# 本地语音识别
npx clawhub install openai-whisper

# 本地语音合成
npx clawhub install sherpa-onnx-tts
7.3 处理速率限制

若出现 Rate limit exceeded,说明未登录的匿名用户请求过多。解决方法:

  • 等待几分钟后重试。

  • 或注册 clawhub 账号并登录:npx clawhub login(按提示在浏览器中完成)。

7.4 技能安装后的必要操作
  1. 重启 OpenClaw 网关:退出 TUI(Ctrl+C)再重新运行 openclaw tui

  2. 检查技能状态openclaw skills list,确保新技能显示 ✓ ready。若仍为 ✗ missing,说明缺少外部依赖(如 CLI 工具),请根据提示安装。

    • 例如 github 需要安装 GitHub CLI

    • obsidian 需要安装 obsidian-cli

    • filesystem-mcp 可能需要配置允许访问的路径。


八、常见问题及解决方法
Q1: 执行 ollama serve 提示端口 11434 被占用

原因:Ollama 已在后台运行(作为系统服务)。 解决:直接使用即可,无需手动启动。若需重启,可在任务管理器中结束 ollama.exe 进程,然后重新运行 ollama serve

Q2: OpenClaw 配置时提示 Verification failed: This operation was aborted

可能原因

  • Ollama 服务未运行 → 运行 ollama list 测试。

  • API Key 留空 → 必须填入任意字符串。

  • Base URL 末尾缺少 /v1 → 应填写 http://127.0.0.1:11434/v1

Q3: 启动 TUI 后仍报上下文窗口过小,但已修改配置文件

解决:确保你修改的是正确的模型条目(即你实际使用的模型 ID)。修改后务必完全退出 TUI(按 Ctrl+C),并重启 OpenClaw 网关(重新运行 openclaw tui)。若仍无效,可尝试删除 ~/.openclaw/agents/main/agent/models.json 让系统重新生成(先备份)。

Q4: 技能安装后状态仍为 ✗ missing

原因:技能依赖的外部工具未安装或未加入 PATH。 解决:查看技能描述,安装所需 CLI 工具。例如:

  • github → 安装 gh

  • obsidian → 安装 obsidian-cli

  • openai-whisper → 下载 whisper.cpp 的 Windows 可执行文件并加入 PATH。

Q5: 技能安装时遇到 Rate limit exceeded

解决:等待 10-15 分钟后再试,或使用 npx clawhub login 登录以提高限额。

Q6: AI 无法将文件保存到桌面(权限问题)

默认权限:AI 只能读写 OpenClaw 工作区目录 ~/.openclaw/workspace临时方案:让 AI 将文件保存到工作区,然后你手动复制到桌面。 进阶方案:配置 filesystem-mcp 技能,允许访问额外路径(需修改技能配置,较复杂,按需查阅文档)。

Q7: Windows 上哪些技能不可用?

依赖 macOS 专有框架的技能无法使用,例如:

  • apple-notes, bear-notes, apple-reminders, things-mac, bluebubbles, imsg


九、下一步

现在你的 OpenClaw 已经具备了基础的对话能力,并安装了实用的技能。你可以:

  • 在 TUI 中尝试让 AI 帮你总结文档、管理 GitHub、生成图像等。

  • 探索更多技能:npx clawhub search <关键词>

  • 配置消息通道(如 Telegram),让 AI 接入即时通讯。

如果遇到任何问题,欢迎查阅 OpenClaw 官方文档 docs.openclaw.ai 或在社区寻求帮助。祝你使用愉快!

posted @ 2026-03-16 22:42  wisilian21  阅读(3834)  评论(0)    收藏  举报