别再花钱买云服务器了!OpenClaw 本地部署保姆级教程,10分钟拥有私人AI助手

别再花钱买云服务器了!OpenClaw 本地部署保姆级教程,10分钟拥有私人AI助手

上周写完 OpenClaw 为什么火的那篇文章后,后台收到最多的问题就是:怎么部署?

说实话,我理解大家的纠结。网上教程铺天盖地,有的让你买阿里云服务器,有的让你搞 Docker,有的直接甩一堆命令行——看完更懵了。

所以今天这篇,我想把事情说清楚:本地部署和云部署到底选哪个?各自适合什么人?具体怎么操作?

我的结论先放这里:如果你只是个人使用,本地部署是最优解。 下面展开说。


一、先搞明白:本地部署 vs 云部署,到底差在哪?

很多教程上来就教你怎么操作,但不讲"为什么"。我觉得选择之前,得先理解两种方案的本质区别。

一张表讲清楚

维度 本地部署 云部署
成本 0 元(用自己电脑) 轻量服务器约 50-100 元/月起
数据安全 数据完全在本地,不出门 数据存在云服务器上
网络依赖 仅调用 AI 模型 API 时需要网络 全程依赖网络
24小时在线 电脑关机就断了 7×24 小时在线
远程访问 需要额外配置内网穿透 天然支持远程访问
性能 取决于你的电脑配置 取决于你买的服务器规格
运维成本 几乎为零 需要管服务器、SSL证书等
上手难度 3 条命令搞定 需要了解服务器运维基础

我的建议

选本地部署的场景:

  • 你只是个人使用,想体验和学习 OpenClaw
  • 你对数据隐私敏感,不想把聊天记录放云上
  • 你不想花钱,先玩起来再说
  • 你主要在电脑前使用,不需要 24 小时在线

选云部署的场景:

  • 你需要 7×24 小时在线(比如挂微信/飞书机器人)
  • 你想从手机随时访问,不想折腾内网穿透
  • 你有团队协作需求,多人共用一个 AI 助手
  • 你本身有云服务器运维经验

一句话:先本地玩明白,有需要再上云。 别上来就买服务器,很多人买了发现用不了几次就吃灰了。

用一张图帮你快速决策:

%%{init: {'theme': 'base', 'themeVariables': { 'primaryColor': '#ffffff', 'primaryTextColor': '#000000', 'primaryBorderColor': '#000000', 'lineColor': '#000000', 'secondaryColor': '#f5f5f5', 'tertiaryColor': '#ffffff', 'fontFamily': 'Arial' }}}%% flowchart TD A["你想用 OpenClaw"] --> B{"需要 24h 在线?"} B -- 不需要 --> C{"在意数据隐私?"} B -- 需要 --> D{"有服务器运维经验?"} C -- 是 --> E["✅ 本地部署 + Ollama 本地模型"] C -- 否 --> F["✅ 本地部署 + 云端 API"] D -- 有 --> G["✅ VPS / Docker 云部署"] D -- 没有 --> H["✅ 阿里云一键镜像"]

二、本地部署实操:3 种方式,选最适合你的

方式一:官方安装脚本(推荐大多数人)

这是官方推荐的方式,也是最简单的。整个过程只需要 4 步。

先看整体流程,心里有数:

%%{init: {'theme': 'base', 'themeVariables': { 'primaryColor': '#ffffff', 'primaryTextColor': '#000000', 'primaryBorderColor': '#000000', 'lineColor': '#000000', 'secondaryColor': '#f5f5f5', 'tertiaryColor': '#ffffff', 'fontFamily': 'Arial' }}}%% flowchart LR A["安装 Node.js ≥ 22"] --> B["运行安装脚本<br/>install.sh"] B --> C["配置向导<br/>openclaw onboard"] C --> D["打开面板<br/>openclaw dashboard"] style A fill:#ffffff,stroke:#000000 style B fill:#ffffff,stroke:#000000 style C fill:#ffffff,stroke:#000000 style D fill:#ffffff,stroke:#000000

前置条件:安装 Node.js ≥ 22

OpenClaw 基于 Node.js 运行,这是唯一的前置依赖。

Mac 用户(推荐用 Homebrew):

# 如果没装过 Homebrew,先安装
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

# 安装 Node.js
brew install node

Windows 用户:

去 Node.js 官网下载安装包:https://nodejs.org/zh-cn/download

安装时注意勾选 "Add Node.js to PATH",这步很关键,不勾的话后面命令都跑不了。

Linux 用户:

# Ubuntu/Debian
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs

# CentOS/RHEL
curl -fsSL https://rpm.nodesource.com/setup_22.x | sudo bash -
sudo yum install -y nodejs

装完验证一下:

node --version    # 应该输出 v22.x.x 或更高

第 1 步:安装 OpenClaw

根据你的系统执行对应命令:

macOS / Linux:

curl -fsSL https://openclaw.ai/install.sh | bash

Windows(PowerShell):

iwr -useb https://openclaw.ai/install.ps1 | iex

这个脚本会自动完成 OpenClaw 的下载和安装。如果国内网络慢,可以挂代理或用社区的中文安装脚本:

curl -fsSL https://raw.githubusercontent.com/miaoxworld/OpenClawInstaller/main/install.sh | bash

第 2 步:运行配置向导

openclaw onboard --install-daemon

这条命令是核心。加了 --install-daemon 参数后,它会一次性帮你搞定三件事:

  1. 认证配置:用 GitHub 账号登录验证身份
  2. 网关设置:配置 Gateway 服务,包括 AI 模型选择和 API Key
  3. 安装守护进程:把 OpenClaw Gateway 注册为系统服务,开机自启

配置向导是交互式的,一步步跟着走就行,不需要自己手动编辑配置文件。

第 3 步:检查网关状态

配置完成后,Gateway 应该已经自动跑起来了。确认一下:

openclaw gateway status

如果显示正在运行,就说明一切正常。如果没有启动,可以手动前台运行(方便看日志排查问题):

openclaw gateway --port 18789

第 4 步:打开控制面板

openclaw dashboard

执行后会自动打开浏览器,访问 http://127.0.0.1:18789/,这就是 OpenClaw 的 Dashboard 控制面板。你也可以直接在浏览器手动输入这个地址。

到这一步,你的本地 AI 助手就已经跑起来了


方式二:npm 手动安装(想了解底层的人)

如果你想更清楚地控制安装过程,可以用 npm 直接安装:

# 安装 OpenClaw
npm install -g openclaw

# 国内网络慢的话先切镜像
npm config set registry https://registry.npmmirror.com
npm install -g openclaw

装完后同样执行 openclaw onboard --install-daemon 进行配置,后续步骤和方式一完全一样。


方式三:Docker 部署(适合有 Docker 经验的人)

如果你本身用 Docker 管理各种服务,这种方式最干净——所有东西都跑在容器里,不污染宿主机环境。

# 拉取镜像
docker pull justlikemaki/openclaw-docker-cn-im:latest

# 下载配置文件
wget https://raw.githubusercontent.com/justlovemaki/OpenClaw-Docker-CN-IM/main/docker-compose.yml
wget https://raw.githubusercontent.com/justlovemaki/OpenClaw-Docker-CN-IM/main/.env.example

# 复制并编辑环境变量
cp .env.example .env
nano .env  # 至少配置 AI 模型的 API Key

# 启动
docker compose up -d

这个社区 Docker 镜像已经做了中文汉化,还预装了飞书、微信等 IM 插件,非常方便。


三、配置模型:让 OpenClaw 接上"大脑"

OpenClaw 装好了只是一个"壳",你还需要给它配一个 AI 模型。这一步很多人卡住,我详细说说。

下面这张图展示了 OpenClaw 的模型接入架构:

%%{init: {'theme': 'base', 'themeVariables': { 'primaryColor': '#ffffff', 'primaryTextColor': '#000000', 'primaryBorderColor': '#000000', 'lineColor': '#000000', 'secondaryColor': '#f5f5f5', 'tertiaryColor': '#ffffff', 'fontFamily': 'Arial' }}}%% flowchart TB OC["OpenClaw Gateway"] --- P["模型 Providers<br/>openclaw.json"] P --- DS["DeepSeek API<br/>性价比最高"] P --- VC["火山引擎豆包<br/>国内访问快"] P --- OL["Ollama 本地模型<br/>完全离线"] P --- OA["OpenAI / Claude<br/>能力最强"] style OC fill:#ffffff,stroke:#000000,stroke-width:2px style P fill:#ffffff,stroke:#000000 style DS fill:#ffffff,stroke:#000000 style VC fill:#ffffff,stroke:#000000 style OL fill:#ffffff,stroke:#000000 style OA fill:#ffffff,stroke:#000000

方案一:接入云端模型(推荐新手)

编辑配置文件 ~/.openclaw/openclaw.json

接入 DeepSeek(性价比最高):

{
  "models": {
    "providers": {
      "deepseek": {
        "baseUrl": "https://api.deepseek.com/v1",
        "apiKey": "你的DeepSeek API Key",
        "api": "openai-completions",
        "models": [
          {
            "id": "deepseek-chat",
            "name": "DeepSeek V3",
            "reasoning": false
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "deepseek/deepseek-chat"
      }
    }
  }
}

接入火山引擎豆包:

{
  "models": {
    "providers": {
      "volcengine": {
        "baseUrl": "https://ark.cn-beijing.volces.com/api/v3",
        "apiKey": "你的火山引擎 API Key",
        "api": "openai-completions",
        "models": [
          {
            "id": "你的推理接入点ID",
            "name": "Doubao Pro"
          }
        ]
      }
    }
  }
}

方案二:接入 Ollama 本地模型(完全离线)

如果你对隐私要求极高,不想调任何云端 API,可以用 Ollama 跑本地模型。

# 先安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 下载模型(以 Qwen 2.5 为例)
ollama pull qwen2.5:7b

然后配置 OpenClaw 连接 Ollama:

{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://127.0.0.1:11434/v1",
        "apiKey": "ollama-local",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen2.5:7b",
            "name": "Qwen 2.5 7B",
            "reasoning": false,
            "contextWindow": 128000,
            "maxTokens": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen2.5:7b"
      }
    }
  }
}

注意:本地模型对电脑配置有要求。7B 模型至少需要 8GB 显存,如果用 CPU 推理会比较慢。我的建议是,先用云端 API 把 OpenClaw 玩熟,再考虑本地模型


四、装上 Skills,让 AI 真正干活

OpenClaw 的核心竞争力之一就是 Skills 生态——1700+ 个社区技能,覆盖各种场景。

Skills 的加载有优先级机制,高优先级会覆盖低优先级的同名 Skill:

%%{init: {'theme': 'base', 'themeVariables': { 'primaryColor': '#ffffff', 'primaryTextColor': '#000000', 'primaryBorderColor': '#000000', 'lineColor': '#000000', 'secondaryColor': '#f5f5f5', 'tertiaryColor': '#ffffff', 'fontFamily': 'Arial' }}}%% flowchart TB W["优先级 1 - 工作区技能\nworkspace/skills"] -->|覆盖| M["优先级 2 - 托管技能\n~/.openclaw/skills"] M -->|覆盖| B["优先级 3 - 内置技能\n随安装包附带"] style W fill:#ffffff,stroke:#000000,stroke-width:2px style M fill:#ffffff,stroke:#000000 style B fill:#ffffff,stroke:#000000

Skills 通过 ClawHub(OpenClaw 的公共技能注册表)来管理。安装命令是 clawhub

# 安装一个技能(会装到 ./skills 或 ~/.openclaw/skills 目录下)
clawhub install <skill-slug>

# 更新所有已安装的技能
clawhub update --all

# 扫描并同步技能
clawhub sync --all

你也可以手动创建自己的 Skill。每个 Skill 就是一个包含 SKILL.md 文件的目录,放到以下任一位置就会自动加载:

  1. 工作区技能<workspace>/skills(优先级最高)
  2. 托管技能~/.openclaw/skills
  3. 内置技能:随安装包附带(优先级最低)

如果需要给某个 Skill 配置 API Key 或参数,编辑 ~/.openclaw/openclaw.json

{
  "skills": {
    "entries": {
      "morning-news": {
        "enabled": true,
        "env": {
          "NEWS_API_KEY": "你的Key"
        }
      }
    }
  }
}

装了 Skills 之后,你就可以对 OpenClaw 说自然语言指令了:

"帮我整理今天的 AI 领域早报"

"监控 GitHub Trending,发现有意思的项目通知我"

"每天早上 9 点检查我的 Gmail 邮箱,把重要邮件摘要发给我"

这就是 OpenClaw 和普通 ChatGPT 最大的区别——它不只是回答问题,它真的能帮你把事情办了。


五、进阶:想上云怎么办?

如果你玩了一阵觉得确实需要 24 小时在线,再考虑云部署。简单说几个方案:

方案一:阿里云轻量应用服务器(最省事)

阿里云有 OpenClaw 专用镜像,一键部署,配置 2vCPU + 2GB 内存起步,默认端口 18789。缺点是需要付费,最便宜大概 50 元/月左右。

方案二:自己买 VPS + 源码部署(最灵活)

在任何一台 Linux 服务器上,按照上面本地部署的步骤操作就行。额外需要配置:

  • Nginx 反向代理
  • SSL 证书(Let's Encrypt 免费)
  • 域名解析
  • PM2 进程管理(保持服务不掉线)

方案三:Docker Compose 部署(最干净)

用前面提到的 Docker 方式,在云服务器上 docker compose up -d 就行。

我的建议是:如果你没有服务器运维经验,方案一最省心;有经验的话,方案二最灵活,更新也方便。


写在最后

说实话,OpenClaw 的部署难度已经非常低了。官方脚本安装 + openclaw onboard --install-daemon + openclaw dashboard,三步就能跑起来。

真正难的不是部署,而是部署之后怎么用好它

Skills 怎么选、模型怎么配、工作流怎么设计——这些才是 OpenClaw 真正发挥价值的地方。这些内容后面会继续写。

如果你在部署过程中遇到问题,可以参考:

关注公众号「coft」,获取更多 AI 实战干货和 OpenClaw 教程。

posted @ 2026-02-18 14:52  warm3snow  阅读(0)  评论(0)    收藏  举报