现在开始,可以在NVIDIA Jetson上养“小龙虾”了!
部署前置要求:专属 Jetson 设备适配,轻量准备即可上手
设备:仅支持 Jetson AGX Thor 或 Jetson AGX Orin,不同设备对应专属 JetPack 版本(Orin 用 JP 6、Thor 用 JP 7);
存储:推荐搭配 NVMe SSD,满足本地大模型权重的存储需求;
账号与终端:免费的 Hugging Face 账号(用于下载模型)、安装了 WhatsApp 的手机一部;
核心能力:需保证模型支持工具调用,这是 OpenClaw 实现实操功能的关键。
六步快速部署:从模型服务到 WhatsApp 交互,全程本地完成
步骤 1:通过 vLLM 部署本地大模型
步骤 2:安装 Node.js 22+
步骤 3:全局安装 OpenClaw
步骤 4:运行交互式配置向导
步骤 5:启动 OpenClaw 网关
步骤 6:通过 WhatsApp 与本地 AI 助手交互
Jetson 安装 OpenClaw 的核心价值:边缘算力赋能,本地优势拉满
1. 数据 100% 私有,规避隐私与安全风险
2. 零云端 API 依赖,无调用成本且不受网络限制
3. 边缘算力低延迟,设备操控更高效
4. 边缘端自动化,打造个性化本地数字分身
5. 依托 NVIDIA 生态,适配性与扩展性拉满
总结
完成了OpenClaw的部署。
2、基本Skills安装
目前安装了12个skill:

三、Github相关配置
1、创建openclaw-vibe-coding代码仓
首先写代码需要有代码仓,所以张小白先在github上建了个代码仓:
2、获取Github Token
打开Github右上角头像,点击Settings:


往下拖到Develop settings:

点击Personal access tokens->Fine-grained token,点击右边的Generate new token:

输入token名称后,选择token权限范围是 openclaw-vibe-coding项目,并且赋予以下权限:

然后点击“Generate token”,会生成token(token只会显示一次,记得先CTRL-C、CTRL-V备份)
3、在OpenClaw容器内进行github配置
进入容器:
docker ps
docker exec -it [容器ID] bash

进行配置:
export GITHUB_TOKEN="github_pat_xxxxx"
# 配置 git credential
git config --global credential.helper store
echo "https://your-github-id:${GITHUB_TOKEN}@github.com" > ~/.git-credentials
gh auth login --with-token <<< "${GITHUB_TOKEN}"

验证配置:
gh auth status

四、ClaudeCode相关配置
1、安装Claude Code
在容器内执行:
curl -fsSL https://claude.ai/install.sh | bash

检查安装结果:
claude --version

2、配置GLM Coding Plan
编辑容器内 ~/.claude/settings.json文件
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "4e0***aqhg",
"ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
"API_TIMEOUT_MS": "3000000",
"CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": 1,
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-4.7",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-5"
}
}

3、配置环境变量
将 以下内容追加到 ~/.bashrc
export PATH=$PATH:$HOME/.local/bin
并且让其生效
source ~/.bashrc
4、启动Claude Code并验证
claude
hello,describe yourself

看来Claude Code自己启动是OK的(调用了GLM Coding Plan的glm-4.7)。
五、OpenClaw配置
1、开启代码执行权限
openclaw config set tools.profile coding

2、配置工作区规则IDENTITY.md
在 ~/.openclaw/workspace/IDENTITY.md 增加以下内容:
## 场景处理 —— 代码与 PR 类需求
当用户提出涉及代码修改、提交、PR 的任务时:
1. 确认目标仓库(从消息中提取,或询问用户)
2. 调用 Claude Code 执行任务(权限检查、clone/fork、分支创建、代码修改、测试、提交推送、创建 PR 等细节由 Claude Code 自动处理)
3. 创建 PR 后默认请求 `@copilot` 审查
4. 完成后汇报:PR 链接 + 修改的文件列表 + 代码修改摘要
5. 用户确认合并时:执行 squash merge 并清理远程分支
### 异常处理
遇到失败时,**先自行诊断修复,修不了再报错**。向用户报告时需包含:具体错误信息 + 已尝试的修复步骤。

3、安装ClaudeCode插件
QQ发出指令:
clawhub install claude-code

安装完成,但是报了个错(构建失败)。
张小白以为成功安装了,就没仔细看。
六、编码验证
1、编写代码
使用claude编一个俄罗斯方块的程序,并上传github https://github.com/zhanghui-china/openclaw-vibe-coding 代码仓



不过它让我做验证。
我猜应该是openclaw的gateway没有重启导致的。
那就验证下吧:
token是xxxxx

打开代码仓看看:

确实已经自动上传了。
2、验证代码
验证的方式就是下载到windows上打开试试。
git clone https://github.com/zhanghui-china/openclaw-vibe-coding.git


打开tetris/index.html看看:

看起来还行。
3、修改代码
我们给这个俄罗斯方块增加一点小功能:
请在https://github.com/zhanghui-china/openclaw-vibe-coding 的俄罗斯方块游戏中增加一个功能, 每次在方块落下的过程中,显示下一个方块的形状。


4、验证代码
再来验证下,这次需要git pull代码了。
cd openclaw-vibe-coding
git pull

再重新打开tetris/index.html看看:

代码也更新了。
这样子,就可以随时让OpenClaw帮你编程序了。
七、是Claude Code做的吗?
不过,怎么知道这个代码就是Claude Code写的呢?
1、问问OpenClaw自己
刚才的代码是使用Claude Code写的吗?你能帮我增加一个 历史分数记录的功能,并且把写代码时截屏发给我吗?

虽然OpenClaw按要求改造代码了,但是它也坦白了:不是Claude Code做的,原因就是因为前面构建失败了。
唉,该解决的还是得解决。
2、重试一次!
我们换一个skill安装:
安装openclaw-claude-code





回了洋洋洒洒一大段。
我们回到容器内看看这个skill:
claude-code-skill --version

确实有这个skill。
看前面提示要查看 Claude Code MCP服务,于是继续问:
查看现在claude code的mcp运行正常吗



MCP没启动哦。而且解释了为啥没有Claude Code也能写代码。
继续提问:
检查是否有claude code

还提供了3种方案:
方案1:使用Claude Code Cli

方案2:配置MCP服务

方案3:补充claude-code-skill所需的软件



对比前面的claude版本:

看来OpenClaw确实发现了张小白配置的Claude Code。
claude --model glm-4.7 "写一个查询黄金实时价格的skill"

看来OpenClaw又想绕过Claude Code自己写skill了。。
所以说AI自主性太强了到底是好事还是坏事呢?





唉,闹了半天还是没有Claude Code,结果做了一个模拟的价格。有啥用呢?!
claude --model glm-4.7 "写一个查询国内92号汽油油价的skill",遇到交互式权限确认的时候默认都同意。



这个skill真的是用claude code做的吗?你有没有证据给我看看



从它执行的命令来看,应该是调用了Claude Code了,但是因为我的语气非常坚决,貌似它有着大模型的通性:在强大压力下表示出犹豫的特征,特别像张无忌。
一、背景
在Jetson AGX Orin 32G安装了OpenClaw之后,老设备焕发青春计划 也提上了日程,今天给大家带来的是Jetson AGX Orin 32G(200TOPS)的后一代,但是性能也是降了不少(只有原来的1/3)的Jetson Orin Nano Super(67TOPS)。

二、安装过程
1、登录设备

查看镜像(主要是看有没有安装docker)
sudo docker images

看来系统中已经带了docker。
那么就用docker安装吧!
2、下载代码仓
git clone https://github.com/openclaw/openclaw.git

3、docker版安装及配置过程(第一次:失败)
cd openclaw
./docker-setup.sh

这个脚本需要sudo才能执行,但是如果把当前用户加入docker组就不用了。
4、将用户加入docker用户组
试图将当前用户加入docker用户组,保证用户执行docker不需要sudo
sudo usermod -aG docker $USER

重新登录:
id

5、更新docker镜像站设置
编辑 /etc/docker/daemon.json文件,然后重启docker:
{
"runtimes": {
"nvidia": {
"args": [],
"path": "nvidia-container-runtime"
}
},
"default-runtime": "nvidia",
"registry-mirrors": [
"https://docker.1ms.run",
"https://docker.xuanyuan.me",
"https://docker.hlmirror.com",
"https://hub-mirror.c.163.com",
"https://mirror.baidubce.com",
"https://docker.xuanyuan.me",
"https://docker.1ms.run",
"https://docker.m.daocloud.io",
"https://pull.loridocker.com",
"https://ccr.ccs.tencentyun.com",
"https://dockerpull.cn"
]
}
(注:docker镜像站会不停的失效,应该随时去找新的)
重启docker
sudo systemctl daemon-reload
sudo systemctl restart docker
sudo systemctl status docker

6、docker版安装及配置过程(第二次)
cd openclaw
./docker-setup.sh



安装时会自动进入OpenClaw的配置页面:


Yes
Quick Start

Z.AI

Coding Plan CN

贴入API Key,Keep current


Channel配置,Skip

Web Search,Skip

Skills,No

Hooks,全选


记住Token(或者复制下来)


首次配置完毕。
三、验证和使用
1、连接OpenClaw UI控制台
浏览器打开
http://192.168.199.161:18789

另外打开一个终端,在~/.openclaw/openclaw.json增加以下配置:
{
"gateway": {
"controlUi": {
"allowedOrigins": [
"http://127.0.0.1:18789",
"http://192.168.199.161:18789"
]
},
}
}

重启Gateway:
docker ps
docker exec -it [容器ID]
ps -ef|grep openclaw
kill [pid]
当然,也可以不进入容器,直接
docker restart [容器ID]

回到页面,贴入前面复制的token:

点击‘连接’

在openclaw.json中增加如下配置:
"controlUi": {
"allowInsecureAuth": true,
"dangerouslyDisableDeviceAuth": true
},
然后重启容器:
docker restart [容器ID]

再次连接:

2、飞书Channel安装与配置(异常处理)
这块跟其他的docker安装方式类似。
只不过张小白在安装的过程中遇到了插件失效的问题:

张小白处理这个问题的方法很简单,就是把问题现象放到OpenClaw UI界面的对话框里面:

让龙虾自己解决就行。当然,它有可能第一次没有解决,那你可以问第二次:

第二次没有解决,你就变着法子问第三次:

第三次不行,你再搞第四次:


终于这个插件能正常完成安装:

然后你重新配置飞书Channel:


反正充分相信小龙虾的能力,另外有点耐心就行了。
3、飞书对话验证

这个时候,仍然选择相信龙虾,在UI聊天框输入对应命令:



注意,你的懒人技能就是把命令扔给小龙虾,把错误的现象贴给 小龙虾。

浙公网安备 33010602011771号