OpenClaw【一、安装部署】

这是一份基于 2026 年最新版本OpenClaw(前身为 Clawdbot/Moltbot)深度指南。OpenClaw 已从一个简单的爬虫工具进化为功能强大的 本地优先 AI 智能体(AI Agent)框架,它能像“数字员工”一样直接操作你的电脑、处理文件、管理日程并执行复杂任务。


一、OpenClaw 核心原理详解

OpenClaw 的核心设计理念是 “Local First, Action Oriented”(本地优先,行动导向)。它不仅仅是一个聊天机器人,而是一个连接大模型与本地操作系统的桥梁。

1. 架构逻辑

OpenClaw 的工作流分为四个核心层级:

  1. 接入层 (Connectors):
    • 支持多平台消息接入:Telegram, Discord, Slack, 飞书,钉钉,微信(通过 Hook),甚至本地命令行 (CLI)。
    • 作用:接收用户指令,返回执行结果。
  2. 大脑层 (LLM Core):
    • 模型无关性: 支持任何兼容 OpenAI API 的模型(Ollama, vLLM, DeepSeek, GPT-4, Claude 等)。
    • 推理引擎: 负责理解自然语言意图,拆解任务步骤,决定调用哪个技能。
  3. 技能层 (Skills/Tools): 这是 OpenClaw 的灵魂
    • 预置技能:文件操作 (ls, cp, rm),代码执行 (python, node),网络请求 (curl),数据库查询等。
    • 沙箱机制: 所有代码和命令在受限环境中运行,防止误删系统文件。
    • 自定义技能: 用户可编写 Python/JS 脚本扩展能力。
  4. 记忆层 (Memory):
    • 短期记忆: 当前对话上下文。
    • 长期记忆: 基于向量数据库 (如 Chroma, SQLite) 存储历史任务、用户偏好和知识库,支持 RAG (检索增强生成)。

2. 工作流程示例

当用户说:“帮我把下载文件夹里的 PDF 整理到‘文档’目录,并总结每篇的内容”:

  1. 感知: OpenClaw 接收指令。
  2. 规划: LLM 拆解任务 -> 1.列出下载目录文件; 2.过滤 PDF; 3.移动文件; 4.读取内容; 5.调用 LLM 总结。
  3. 执行: 依次调用 file_list, file_move, file_read, llm_summarize 技能。
  4. 反馈: 将整理结果和总结报告发送回用户。

二、全流程部署指南 (2026 版)

OpenClaw 支持 Docker (推荐), 源码安装, 和 一键脚本

方案 A:Docker 部署 (最推荐,隔离性好)

前置要求: 安装 Docker & Docker Compose。

  1. 创建项目目录:

    mkdir openclaw && cd openclaw
    
  2. 下载 docker-compose.yml:
    可以直接使用官方精简配置:

    version: '3.8'
    services:
      openclaw:
        image: ghcr.io/openclaw/openclaw:latest
        container_name: openclaw
        restart: unless-stopped
        ports:
          - "3000:3000" # Web UI 端口
        volumes:
          - ./config:/app/config      # 配置文件持久化
          - ./data:/app/data          # 记忆数据持久化
          - ~/Downloads:/sandbox/downloads # 映射下载目录到沙箱
          - ~/Documents:/sandbox/docs    # 映射文档目录
        environment:
          - OLLAMA_HOST=http://host.docker.internal:11434 # 连接本地 Ollama
          - OPENCLAW_SECRET_KEY=your_secure_random_string
        extra_hosts:
          - "host.docker.internal:host-gateway" # 允许容器访问宿主机
    
  3. 启动服务:

    docker compose up -d
    

    启动后,访问 http://localhost:3000 即可看到 Web 管理界面。

方案 B:本地源码部署 (适合开发者调试)

前置要求: Python 3.10+, Node.js 20+, Git。

  1. 克隆仓库:

    git clone https://github.com/openclaw/openclaw.git
    cd openclaw
    
  2. 安装依赖:

    # 后端依赖
    python -m venv venv
    source venv/bin/activate  # Windows: venv\Scripts\activate
    pip install -r requirements.txt
    
    # 前端依赖 (如果需要编译 UI)
    cd frontend
    npm install
    npm run build
    
  3. 配置环境变量:
    复制 .env.example.env:

    cp .env.example .env
    

    编辑 .env 文件,关键配置如下:

    # LLM 配置 (对接本地 Ollama)
    LLM_PROVIDER=openai
    OPENAI_BASE_URL=http://127.0.0.1:11434/v1
    OPENAI_API_KEY=ollama-local
    LLM_MODEL=qwen2.5:7b
    
    # 安全配置
    OPENCLAW_SECRET_KEY=super-secret-key-change-me
    SANDBOX_ENABLED=true
    SANDBOX_ROOT=/tmp/openclaw-sandbox
    
  4. 运行服务:

    python main.py
    # 或者使用开发模式
    uvicorn main:app --reload
    

方案 C:如果已经安装了nodejs、npm、git,通过 npm 直接安装

  1. 直接通过 npm 全局安装 OpenClaw 核心(跳过脚本的依赖检查/安装)
    npm install -g openclaw
    或者
    npm install -g openclaw --registry=https://registry.npmmirror.com

  2. 初始化 OpenClaw(替代脚本的 onboard 流程)
    openclaw onboard --flow quickstart

  3. 启动服务(与原脚本一致)

openclaw start openclaw dashboard

openclaw gateway start
openclaw gateway start --port 8080
openclaw gateway restart

openclaw gateway stop

方案 D:Windows 一键安装包 (小白专用)

2026 年版本提供了 .exe 安装程序:

  1. 下载 OpenClaw-Setup-Windows.exe
  2. 运行安装,向导会自动检测并安装 Python 环境和依赖。
  3. 安装完成后,桌面会出现 "OpenClaw Dashboard" 快捷方式。

三、核心配置详解

部署完成后,必须正确配置才能发挥威力。主要通过 Web UI (http://localhost:3000) 或 config.yaml 进行。

1. 连接大模型 (LLM)

在配置页面选择 Provider: OpenAI Compatible,填入:

  • Base URL: http://127.0.0.1:11434/v1 (如果使用 Ollama)
  • API Key: ollama (任意非空字符串)
  • Model: qwen2.5:7b (确保 Ollama 已拉取此模型)

技巧: 对于复杂任务,建议在 Ollama 中创建一个带 System Prompt 的定制模型,强调其 "Agent" 身份。

2. 配置沙箱 (Sandbox) - 安全核心

OpenClaw 执行命令必须在沙箱内,防止 rm -rf / 悲剧。

  • 映射目录: 在 Docker 中,通过 -v 将宿主机的特定目录(如 ~/Downloads)映射到容器内的 /sandbox
  • 权限控制: OpenClaw 默认只能访问 /sandbox 及其子目录。如需访问其他路径,需在配置中显式声明 ALLOWED_PATHS

3. 启用技能 (Skills)

config.yaml 或 UI 中启用所需技能模块:

skills:
  filesystem: true   # 文件读写、移动、删除
  shell: true        # 执行 Shell 命令 (需谨慎)
  python_runner: true# 执行 Python 代码
  web_search: true   # 联网搜索 (需配置 Serper 或 Bing API)
  database: true     # SQL 查询

四、使用示例详解

场景 1:自动化文件整理 (基础)

用户指令:

"监控下载文件夹,把所有 .jpg 和 .png 图片移动到 'Pictures' 文件夹,并按日期重命名。"

OpenClaw 执行过程:

  1. 监听: 检测到 ~/Downloads 新文件。
  2. 判断: 识别后缀名为 .jpg/.png
  3. 行动:
    • 调用 file.move(source, dest)
    • 调用 file.rename(old_name, new_date_format_name)
  4. 反馈: "已移动 3 张图片到 Pictures 文件夹,并重命名为 2026-03-16_01.jpg 等。"

场景 2:数据抓取与分析 (进阶)

用户指令:

"去 GitHub trending 页面抓取今天最火的 5 个 Python 项目,保存为 CSV,并用 Python 画一个 Star 数量的柱状图。"

OpenClaw 执行过程:

  1. 浏览: 调用 browser.navigatebrowser.scrape 获取网页内容。
  2. 解析: LLM 提取项目名称、Star 数、描述。
  3. 存储: 调用 file.write_csv 保存数据。
  4. 编程: 编写一段 Python 代码 (使用 matplotlib) 读取 CSV 并绘图。
  5. 执行: 在沙箱中运行该 Python 脚本。
  6. 交付: 返回生成的 chart.png 图片给用户。

场景 3:个人知识库问答 (RAG)

用户指令:

"根据我上传的 '项目文档.pdf',告诉我目前的 API 认证流程是什么?"

OpenClaw 执行过程:

  1. 索引: 之前已自动将 docs/ 目录下的 PDF 向量化存入本地数据库。
  2. 检索: 收到问题后,先在向量库中搜索相关片段。
  3. 生成: 将检索到的片段 + 用户问题发送给 LLM。
  4. 回答: LLM 基于文档内容生成准确答案,并附带引用来源。

五、高级技巧与避坑指南

1. 提升模型执行力

  • 问题: 模型经常“只说不做”,或者编造命令。
  • 解决:
    • 使用专为 Agent 优化的模型 (如 Qwen2.5-Coder, Llama-3.1-ToolUse)。
    • 在 System Prompt 中强制要求:You must call the available tools to complete the task. Do not simulate the output.
    • 调低 temperature (建议 0.2 - 0.5),减少幻觉。

2. 安全性警告

  • 不要将根目录 / 映射到沙箱。
  • 不要在生产环境开启 shell: true 除非你完全信任输入源。
  • 建议为 OpenClaw 创建一个专用的低权限系统用户运行。

3. 国内网络适配

  • 如果无法拉取 Docker 镜像,使用阿里云镜像加速:
    export DOCKER_HOST=registry.cn-hangzhou.aliyuncs.com/openclaw/openclaw:latest
    
  • 如果使用联网搜索技能,需配置国内的搜索 API (如 Bing CN 或 自建 Serper)。

4. 常见报错

  • Connection refused: 检查 Docker 的 extra_hosts 配置,确保容器能连通宿主机的 Ollama。
  • Permission denied: 检查挂载目录的 Linux 文件权限 (chmod 777chown)。
  • Context limit exceeded: 处理长文档时,确保 Ollama 模型的 num_ctx 参数足够大 (参考前文 Modelfile 设置)。

六、总结

OpenClaw 是 2026 年本地 AI 自动化的标杆工具。

  • 核心价值: 让大模型从“聊天”走向“干活”。
  • 最佳搭档: Ollama (提供本地智力) + OpenClaw (提供手脚) + Docker (提供安全环境)。
  • 适用人群: 希望保护隐私、需要自动化重复工作、喜欢折腾本地技术的开发者和极客。
posted @ 2026-03-16 14:56  蓝迷梦  阅读(463)  评论(0)    收藏  举报