35 万 Star 的 OpenClaw:5 分钟部署你的私人 AI 助手,直连飞书
35 万 Star 的 OpenClaw:5 分钟部署你的私人 AI 助手,直连飞书
GitHub 上 35 万 Star 的 OpenClaw 刚完成飞书频道的生产级支持。这意味着什么?你可以在自己的机器上跑一个 AI 助手,直接通过飞书跟它对话——不用任何云服务,数据完全掌握在自己手里。
我用了一个下午把它跑通了,从安装到飞书对接大概花了 15 分钟。下面把完整过程分享出来。
本文提纲
- OpenClaw 是什么
- 环境准备与安装
- 运行 Onboard 向导
- 接入飞书频道
- 飞书安全与权限配置
- 实际使用体验
OpenClaw 是什么
OpenClaw 是一个开源的个人 AI 助手,用 TypeScript 写的,MIT 协议。核心理念很简单:你自己的设备上运行一个 Gateway,然后把它连到你已经在用的聊天工具上。
它支持的消息渠道多到离谱:
- 即时通讯:WhatsApp、Telegram、Signal、iMessage、WeChat
- 团队协作:Slack、Discord、Microsoft Teams、飞书 (Feishu/Lark)
- 其他:Matrix、IRC、LINE、Mattermost、Nostr、Twitch 等 20+ 个平台
技术架构长这样:
MERMAID_BLOCK_0
Gateway 是整个系统的控制平面,所有消息渠道、客户端、工具都通过 WebSocket 连接到它。你只需要跑这一个进程,就能把所有渠道打通。
环境准备与安装
前置要求
- Node.js 24(推荐)或 Node.js 22.16+
- 一个 AI 模型的 API Key(Anthropic、OpenAI、Google 等都可以)
检查 Node 版本:
node --version
# v24.x.x 或 v22.16+
一键安装
macOS / Linux:
curl -fsSL https://openclaw.ai/install.sh | bash
Windows PowerShell:
iwr -useb https://openclaw.ai/install.ps1 | iex
或者用 npm 手动装:
npm install -g openclaw@latest
如果你想从源码编译:
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm ui:build
pnpm build
运行 Onboard 向导
安装好之后,运行 onboard 命令:
openclaw onboard --install-daemon
这个向导会引导你完成三件事:
- 选择模型提供商 — 比如选 Anthropic,输入你的 Claude API Key
- 配置 Gateway — 端口默认
18789,绑定到本地回环地址 - 安装守护进程 — 用 launchd (macOS) 或 systemd (Linux) 让 Gateway 开机自启
整个过程 2 分钟左右。
向导结束后,确认 Gateway 在跑:
openclaw gateway status
你应该能看到 Gateway 监听在 ws://127.0.0.1:18789。
打开 Web 控制台:
openclaw dashboard
浏览器会弹出 Control UI,在聊天框里发一条消息试试。如果 AI 回复了,说明基础配置没问题,可以继续接入飞书了。
接入飞书频道
飞书频道从 OpenClaw 2026.4.10 版本开始正式可用。先确认版本:
openclaw --version
如果版本太旧,升级一下:
openclaw update
快速对接(推荐)
OpenClaw 提供了一个交互式向导,一条命令搞定飞书接入:
openclaw channels login --channel feishu
运行后会弹出一个二维码,用飞书 App 扫码就行。扫码过程中 OpenClaw 会自动帮你:
- 在飞书开放平台创建应用
- 配置事件订阅
- 获取 App ID 和 App Secret
- 写入配置文件
扫码完成后,重启 Gateway:
openclaw gateway restart
去飞书里找到你的机器人,发条消息。如果收到回复,恭喜你,搞定了。
手动配置(备选)
如果自动向导不好使,可以手动配置。在飞书开放平台创建一个自建应用后,编辑 OpenClaw 配置文件(通常在 ~/.openclaw/config.json):
{
"channels": {
"feishu": {
"enabled": true,
"domain": "feishu",
"connectionMode": "websocket",
"accounts": {
"default": {
"appId": "cli_xxxxxxxxxxxx",
"appSecret": "your_app_secret_here"
}
}
}
}
}
配置说明:
| 字段 | 说明 |
|---|---|
domain |
国内飞书写 feishu,海外 Lark 写 lark |
connectionMode |
推荐用 websocket(长连接),也可以用 webhook 模式 |
appId / appSecret |
飞书开放平台创建应用后获取 |
然后在飞书开放平台的应用配置里:
- 添加事件订阅 — 订阅
im.message.receive_v1事件 - 选择连接方式 — 选"使用长连接接收事件"(即 WebSocket)
- 添加权限 — 至少需要
im:message、im:message:send_as_bot - 发布应用 — 设置可用范围后发布
重启 Gateway 生效:
openclaw gateway restart
飞书安全与权限配置
OpenClaw 对飞书的安全配置比较细,可以精确控制谁能跟机器人对话。
私聊权限(dmPolicy)
{
"channels": {
"feishu": {
"dmPolicy": "pairing"
}
}
}
四种策略:
| 值 | 行为 |
|---|---|
pairing |
陌生人发消息会收到配对码,需你在 CLI 审批 |
allowlist |
只允许 allowFrom 列表里的用户(默认) |
open |
所有人都能私聊 |
disabled |
关闭私聊功能 |
审批配对请求的命令:
openclaw pairing list feishu
openclaw pairing approve feishu <CODE>
群聊权限(groupPolicy)
{
"channels": {
"feishu": {
"groupPolicy": "allowlist",
"groupAllowFrom": ["oc_xxx", "oc_yyy"],
"requireMention": true
}
}
}
groupPolicy控制是否响应群消息requireMention控制是否必须 @机器人 才回复(默认true)groupAllowFrom是群组白名单,格式是oc_开头的 chat_id
获取群组 ID 的方法:在飞书群里点右上角菜单 → 设置,页面里会显示 chat_id。
流式回复
飞书支持通过交互式卡片实现流式输出,看着像 ChatGPT 那种一个字一个字蹦出来的效果:
{
"channels": {
"feishu": {
"streaming": true,
"blockStreaming": true
}
}
}
默认就是开启的。如果不需要,设成 false 即可。
实际使用体验
搭好之后,我在飞书里跟它聊了一下午。几个印象深的点:
响应速度:因为 Gateway 跑在本地,飞书消息 → Gateway → LLM API → 飞书,整个链路延迟主要取决于模型 API。用 Claude 3.5 Sonnet 的话,首 token 大概 1-2 秒,流式输出体验很流畅。
多渠道同步:我同时把 Telegram 也接上了,两个平台的对话是隔离的(不同 session),但底层跑的是同一个 Gateway。这意味着我换设备聊天,上下文不会串。
数据自主:所有对话历史、配置文件都在本地 ~/.openclaw/ 目录下。不用担心聊天记录被第三方拿到。
常用命令(在飞书里直接发文字即可):
| 命令 | 功能 |
|---|---|
/status |
查看机器人状态 |
/reset |
重置当前会话 |
/model |
查看或切换 AI 模型 |
一个实用的场景:把 OpenClaw 的 Gateway 跑在一台小 Linux 服务器上(比如家里的树莓派或云主机),然后通过 Tailscale 从外面安全访问。这样你的 AI 助手就是 7x24 在线的,手机上的飞书随时能用。
作者: TheAIEra
来源: 公众号:AI 人工智能时代
本文首发于 AI 人工智能时代,转载请注明出处。

浙公网安备 33010602011771号