35 万 Star 的 OpenClaw:5 分钟部署你的私人 AI 助手,直连飞书

35 万 Star 的 OpenClaw:5 分钟部署你的私人 AI 助手,直连飞书

GitHub 上 35 万 Star 的 OpenClaw 刚完成飞书频道的生产级支持。这意味着什么?你可以在自己的机器上跑一个 AI 助手,直接通过飞书跟它对话——不用任何云服务,数据完全掌握在自己手里。

我用了一个下午把它跑通了,从安装到飞书对接大概花了 15 分钟。下面把完整过程分享出来。

本文提纲

  1. OpenClaw 是什么
  2. 环境准备与安装
  3. 运行 Onboard 向导
  4. 接入飞书频道
  5. 飞书安全与权限配置
  6. 实际使用体验

OpenClaw 是什么

OpenClaw 是一个开源的个人 AI 助手,用 TypeScript 写的,MIT 协议。核心理念很简单:你自己的设备上运行一个 Gateway,然后把它连到你已经在用的聊天工具上。

它支持的消息渠道多到离谱:

  • 即时通讯:WhatsApp、Telegram、Signal、iMessage、WeChat
  • 团队协作:Slack、Discord、Microsoft Teams、飞书 (Feishu/Lark)
  • 其他:Matrix、IRC、LINE、Mattermost、Nostr、Twitch 等 20+ 个平台

技术架构长这样:

MERMAID_BLOCK_0

Gateway 是整个系统的控制平面,所有消息渠道、客户端、工具都通过 WebSocket 连接到它。你只需要跑这一个进程,就能把所有渠道打通。

环境准备与安装

前置要求

  • Node.js 24(推荐)或 Node.js 22.16+
  • 一个 AI 模型的 API Key(Anthropic、OpenAI、Google 等都可以)

检查 Node 版本:

node --version
# v24.x.x 或 v22.16+

一键安装

macOS / Linux:

curl -fsSL https://openclaw.ai/install.sh | bash

Windows PowerShell:

iwr -useb https://openclaw.ai/install.ps1 | iex

或者用 npm 手动装:

npm install -g openclaw@latest

如果你想从源码编译:

git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm ui:build
pnpm build

运行 Onboard 向导

安装好之后,运行 onboard 命令:

openclaw onboard --install-daemon

这个向导会引导你完成三件事:

  1. 选择模型提供商 — 比如选 Anthropic,输入你的 Claude API Key
  2. 配置 Gateway — 端口默认 18789,绑定到本地回环地址
  3. 安装守护进程 — 用 launchd (macOS) 或 systemd (Linux) 让 Gateway 开机自启

整个过程 2 分钟左右。

向导结束后,确认 Gateway 在跑:

openclaw gateway status

你应该能看到 Gateway 监听在 ws://127.0.0.1:18789

打开 Web 控制台:

openclaw dashboard

浏览器会弹出 Control UI,在聊天框里发一条消息试试。如果 AI 回复了,说明基础配置没问题,可以继续接入飞书了。

接入飞书频道

飞书频道从 OpenClaw 2026.4.10 版本开始正式可用。先确认版本:

openclaw --version

如果版本太旧,升级一下:

openclaw update

快速对接(推荐)

OpenClaw 提供了一个交互式向导,一条命令搞定飞书接入:

openclaw channels login --channel feishu

运行后会弹出一个二维码,用飞书 App 扫码就行。扫码过程中 OpenClaw 会自动帮你:

  • 在飞书开放平台创建应用
  • 配置事件订阅
  • 获取 App ID 和 App Secret
  • 写入配置文件

扫码完成后,重启 Gateway:

openclaw gateway restart

去飞书里找到你的机器人,发条消息。如果收到回复,恭喜你,搞定了。

手动配置(备选)

如果自动向导不好使,可以手动配置。在飞书开放平台创建一个自建应用后,编辑 OpenClaw 配置文件(通常在 ~/.openclaw/config.json):

{
  "channels": {
    "feishu": {
      "enabled": true,
      "domain": "feishu",
      "connectionMode": "websocket",
      "accounts": {
        "default": {
          "appId": "cli_xxxxxxxxxxxx",
          "appSecret": "your_app_secret_here"
        }
      }
    }
  }
}

配置说明:

字段 说明
domain 国内飞书写 feishu,海外 Lark 写 lark
connectionMode 推荐用 websocket(长连接),也可以用 webhook 模式
appId / appSecret 飞书开放平台创建应用后获取

然后在飞书开放平台的应用配置里:

  1. 添加事件订阅 — 订阅 im.message.receive_v1 事件
  2. 选择连接方式 — 选"使用长连接接收事件"(即 WebSocket)
  3. 添加权限 — 至少需要 im:messageim:message:send_as_bot
  4. 发布应用 — 设置可用范围后发布

重启 Gateway 生效:

openclaw gateway restart

飞书安全与权限配置

OpenClaw 对飞书的安全配置比较细,可以精确控制谁能跟机器人对话。

私聊权限(dmPolicy)

{
  "channels": {
    "feishu": {
      "dmPolicy": "pairing"
    }
  }
}

四种策略:

行为
pairing 陌生人发消息会收到配对码,需你在 CLI 审批
allowlist 只允许 allowFrom 列表里的用户(默认)
open 所有人都能私聊
disabled 关闭私聊功能

审批配对请求的命令:

openclaw pairing list feishu
openclaw pairing approve feishu <CODE>

群聊权限(groupPolicy)

{
  "channels": {
    "feishu": {
      "groupPolicy": "allowlist",
      "groupAllowFrom": ["oc_xxx", "oc_yyy"],
      "requireMention": true
    }
  }
}
  • groupPolicy 控制是否响应群消息
  • requireMention 控制是否必须 @机器人 才回复(默认 true
  • groupAllowFrom 是群组白名单,格式是 oc_ 开头的 chat_id

获取群组 ID 的方法:在飞书群里点右上角菜单 → 设置,页面里会显示 chat_id

流式回复

飞书支持通过交互式卡片实现流式输出,看着像 ChatGPT 那种一个字一个字蹦出来的效果:

{
  "channels": {
    "feishu": {
      "streaming": true,
      "blockStreaming": true
    }
  }
}

默认就是开启的。如果不需要,设成 false 即可。

实际使用体验

搭好之后,我在飞书里跟它聊了一下午。几个印象深的点:

响应速度:因为 Gateway 跑在本地,飞书消息 → Gateway → LLM API → 飞书,整个链路延迟主要取决于模型 API。用 Claude 3.5 Sonnet 的话,首 token 大概 1-2 秒,流式输出体验很流畅。

多渠道同步:我同时把 Telegram 也接上了,两个平台的对话是隔离的(不同 session),但底层跑的是同一个 Gateway。这意味着我换设备聊天,上下文不会串。

数据自主:所有对话历史、配置文件都在本地 ~/.openclaw/ 目录下。不用担心聊天记录被第三方拿到。

常用命令(在飞书里直接发文字即可):

命令 功能
/status 查看机器人状态
/reset 重置当前会话
/model 查看或切换 AI 模型

一个实用的场景:把 OpenClaw 的 Gateway 跑在一台小 Linux 服务器上(比如家里的树莓派或云主机),然后通过 Tailscale 从外面安全访问。这样你的 AI 助手就是 7x24 在线的,手机上的飞书随时能用。


作者: TheAIEra
来源: 公众号:AI 人工智能时代

本文首发于 AI 人工智能时代,转载请注明出处。

posted @ 2026-04-13 22:32  iTech  阅读(11)  评论(0)    收藏  举报