现在开始,可以在NVIDIA Jetson上养“小龙虾”了!

近日,NVIDIA 在 Jetson AI Lab 正式推出 OpenClaw(小龙虾)的专属部署教程,让用户可在 Jetson 边缘计算设备上搭建 100% 本地运行的 AI 个人助手,全程无需调用任何云端 API,仅通过 WhatsApp 即可实现智能交互与设备操控。这款被称作 “小龙虾” 的 OpenClaw 并非普通聊天机器人,而是能真正 “动手做事” 的智能代理,结合 Jetson 的边缘算力,为用户打造了数据私有、响应高效的本地 AI 体验。
 
 
 
OpenClaw 是一款开源的个人数字助手,核心优势在于本地运行、自主可控,它能实现文件管理、网页浏览、应用控制等实操功能,还可通过 WhatsApp、Discord 等社交平台接收指令,同时会持续记忆用户的使用习惯与偏好,适配个性化的自动化需求。而 NVIDIA 此次的教程,让 Jetson 设备成为了运行 OpenClaw 的理想载体,实现了边缘端 AI 智能体的完整落地。
教程地址:https://www.jetson-ai-lab.com/tutorials/openclaw

部署前置要求:专属 Jetson 设备适配,轻量准备即可上手

要在 Jetson 上部署 OpenClaw,硬件与基础配置需满足 NVIDIA 的专属适配要求,整体准备门槛低,核心要求如下:

设备:仅支持 Jetson AGX Thor 或 Jetson AGX Orin,不同设备对应专属 JetPack 版本(Orin 用 JP 6、Thor 用 JP 7);

存储:推荐搭配 NVMe SSD,满足本地大模型权重的存储需求;

账号与终端:免费的 Hugging Face 账号(用于下载模型)、安装了 WhatsApp 的手机一部;

核心能力:需保证模型支持工具调用,这是 OpenClaw 实现实操功能的关键。

NVIDIA 测试发现,混合专家模型(MoE)如 Nemotron 3 Nano 30B-A3B、Qwen 3.5 35B-A3B 等,与 OpenClaw 适配性最佳,能更高效地完成指令执行。

六步快速部署:从模型服务到 WhatsApp 交互,全程本地完成

NVIDIA 的教程将 OpenClaw 的部署流程简化为 6 个核心步骤,全程通过命令行操作,无需复杂的开发能力,完成后即可实现 WhatsApp 与 Jetson 本地 AI 助手的联动:

步骤 1:通过 vLLM 部署本地大模型

这是本地运行的核心基础,先导出 Hugging Face 令牌,再根据 Jetson 设备型号(Thor/Orin)执行专属 Docker 命令,通过 vLLM 启动模型服务,同时可清理 GPU 内存缓存保证运行效率,最后通过 curl 命令验证模型是否成功部署。

步骤 2:安装 Node.js 22+

OpenClaw 的运行依赖 Node.js 22 及以上版本,通过官方脚本一键安装后,验证版本即可完成基础环境配置。

步骤 3:全局安装 OpenClaw

使用 npm 命令全局安装最新版 OpenClaw,通过openclaw --version验证安装结果,完成工具本身的部署。

步骤 4:运行交互式配置向导

执行带跳过守护进程参数的配置命令,依次完成 vLLM 模型提供者配置(填写本地地址、自定义 API 密钥、精准输入模型名)、WhatsApp 渠道绑定(扫描终端二维码、填写国际格式手机号),同时可选择跳过技能安装与云端 API 密钥配置(纯本地部署)、勾选钩子功能实现指令自动化。

步骤 5:启动 OpenClaw 网关

通过 nohup 命令让网关后台运行并记录日志,数秒后执行状态检测命令,确认 WhatsApp 渠道已启用并连接,即完成网关启动。

步骤 6:通过 WhatsApp 与本地 AI 助手交互

OpenClaw 会作为二级设备绑定到 WhatsApp 账号,用户只需在 WhatsApp 中 “给自己发消息”,即可向 Jetson 上的 OpenClaw 发送指令,首次消息因模型预热可能稍慢,后续交互响应将大幅提升。
此外,WhatsApp 内置了/status(查看会话信息)、/new(重置会话)、/model(切换模型)等快捷命令,无需调用大模型即可快速操作,进一步提升使用体验。

Jetson 安装 OpenClaw 的核心价值:边缘算力赋能,本地优势拉满

将 OpenClaw 部署在 Jetson 设备上,并非简单的 “硬件 + 软件” 组合,而是 NVIDIA 边缘计算生态与智能代理工具的深度融合,为用户带来了云端 AI 助手无法比拟的价值,核心体现在四大方面:

1. 数据 100% 私有,规避隐私与安全风险

全程本地运行意味着用户的所有指令、会话记录、设备操作数据均存储在 Jetson 设备中,无需上传至任何云端服务器,从根源上避免了数据泄露风险。同时教程中网关默认绑定本地主机,仅允许设备内访问,结合边缘端的隔离性,大幅降低了提示注入等网络攻击的可能性,尤其适合对数据隐私要求高的个人与小型团队。

2. 零云端 API 依赖,无调用成本且不受网络限制

与传统云端 AI 助手不同,Jetson+OpenClaw 的组合完全脱离云端 API,无需支付任何模型调用费用,实现了 “一次部署,永久使用”。同时,所有计算与指令执行均在边缘端完成,即使在无网络或弱网络环境下,依然能正常响应 WhatsApp 指令,打破了网络对 AI 助手使用场景的限制。

3. 边缘算力低延迟,设备操控更高效

Jetson 作为专业的边缘计算设备,具备强大的本地 GPU 算力,能快速完成大模型的推理与工具调用,相比云端 AI 助手的 “指令上传 - 云端计算 - 结果返回” 流程,本地部署的 OpenClaw 响应延迟大幅降低,对文件管理、应用控制等本地设备操作的执行效率提升尤为明显,真正实现 “指令发出,即刻执行”。

4. 边缘端自动化,打造个性化本地数字分身

OpenClaw 的自动化能力与 Jetson 的边缘部署特性结合,让用户可打造专属的 “本地数字分身”:既能通过 WhatsApp 远程向 Jetson 下达指令,实现设备的远程操控,也能配置个性化钩子与技能,让 OpenClaw 自动完成价格监控、文件整理、日常工作流自动化等任务。同时,Jetson 设备的低功耗特性,支持 OpenClaw7×24 小时后台运行,让智能代理真正实现 “全天候待命”。

5. 依托 NVIDIA 生态,适配性与扩展性拉满

NVIDIA 为 Jetson 设备定制了专属的 OpenClaw 部署脚本与模型优化方案,如针对 MoE 模型的 FlashInfer 加速、GPU 内存利用率优化等,让模型在 Jetson 上的运行效率达到最优。同时,OpenClaw 支持后续安装各类技能插件、对接更多本地工具,结合 Jetson 丰富的外设与接口,可轻松扩展至智能家居控制、工业边缘监控等更多场景,实现边缘 AI 的无限可能。

总结

NVIDIA 此次推出的 Jetson 版 OpenClaw 部署教程,不仅让边缘计算设备拥有了真正的智能代理能力,更让 “本地 AI 助手” 从概念落地为可实操的方案。Jetson 的边缘算力为 OpenClaw 提供了高效的运行底座,而 OpenClaw 则让 Jetson 的价值从单纯的计算硬件升级为 “能听会做” 的智能边缘终端。
对于用户而言,这种组合既实现了 AI 助手的自主可控与隐私保护,又摆脱了云端的束缚与成本,无论是个人日常的自动化需求,还是小型团队的边缘端智能管理,都能找到完美的适配场景。随着 OpenClaw 社区的不断发展,以及 Jetson 边缘计算生态的持续完善,本地智能代理的应用场景还将不断拓展,而 NVIDIA 的这一教程,无疑为边缘 AI 的普及打开了新的大门。

完成了OpenClaw的部署。

2、基本Skills安装

目前安装了12个skill:

 

三、Github相关配置

1、创建openclaw-vibe-coding代码仓

首先写代码需要有代码仓,所以张小白先在github上建了个代码仓:

2、获取Github Token

打开Github右上角头像,点击Settings:

往下拖到Develop settings:

点击Personal access tokens->Fine-grained token,点击右边的Generate new token:

输入token名称后,选择token权限范围是 openclaw-vibe-coding项目,并且赋予以下权限:

然后点击“Generate token”,会生成token(token只会显示一次,记得先CTRL-C、CTRL-V备份)

 

3、在OpenClaw容器内进行github配置

进入容器:

docker ps
docker exec -it [容器ID] bash

进行配置:

export GITHUB_TOKEN="github_pat_xxxxx"

# 配置 git credential
git config --global credential.helper store
echo "https://your-github-id:${GITHUB_TOKEN}@github.com" > ~/.git-credentials

gh auth login --with-token <<< "${GITHUB_TOKEN}"

验证配置:

gh auth status   

四、ClaudeCode相关配置

1、安装Claude Code

在容器内执行:

 curl -fsSL https://claude.ai/install.sh | bash

检查安装结果:

claude --version

2、配置GLM Coding Plan

编辑容器内 ~/.claude/settings.json文件

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "4e0***aqhg",
    "ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
    "API_TIMEOUT_MS": "3000000",
    "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": 1,
    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air",
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-4.7",
    "ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-5"
  }
}

3、配置环境变量

将 以下内容追加到 ~/.bashrc

export PATH=$PATH:$HOME/.local/bin

并且让其生效

source ~/.bashrc

4、启动Claude Code并验证

claude
hello,describe yourself

看来Claude Code自己启动是OK的(调用了GLM Coding Plan的glm-4.7)。

 

五、OpenClaw配置

1、开启代码执行权限

openclaw config set tools.profile coding

2、配置工作区规则IDENTITY.md

在 ~/.openclaw/workspace/IDENTITY.md 增加以下内容:

## 场景处理 —— 代码与 PR 类需求

当用户提出涉及代码修改、提交、PR 的任务时:
1. 确认目标仓库(从消息中提取,或询问用户)
2. 调用 Claude Code 执行任务(权限检查、clone/fork、分支创建、代码修改、测试、提交推送、创建 PR 等细节由 Claude Code 自动处理)
3. 创建 PR 后默认请求 `@copilot` 审查
4. 完成后汇报:PR 链接 + 修改的文件列表 + 代码修改摘要
5. 用户确认合并时:执行 squash merge 并清理远程分支

### 异常处理

遇到失败时,**先自行诊断修复,修不了再报错**。向用户报告时需包含:具体错误信息 + 已尝试的修复步骤。

3、安装ClaudeCode插件

QQ发出指令:

clawhub install claude-code

安装完成,但是报了个错(构建失败)。

张小白以为成功安装了,就没仔细看。

 

六、编码验证

1、编写代码

使用claude编一个俄罗斯方块的程序,并上传github https://github.com/zhanghui-china/openclaw-vibe-coding 代码仓

不过它让我做验证。

我猜应该是openclaw的gateway没有重启导致的。

那就验证下吧:

token是xxxxx

打开代码仓看看:

确实已经自动上传了。

2、验证代码

验证的方式就是下载到windows上打开试试。

git clone https://github.com/zhanghui-china/openclaw-vibe-coding.git

打开tetris/index.html看看:

看起来还行。

3、修改代码

我们给这个俄罗斯方块增加一点小功能:

请在https://github.com/zhanghui-china/openclaw-vibe-coding 的俄罗斯方块游戏中增加一个功能, 每次在方块落下的过程中,显示下一个方块的形状。

4、验证代码

再来验证下,这次需要git pull代码了。

cd openclaw-vibe-coding
git pull

再重新打开tetris/index.html看看:

代码也更新了。

这样子,就可以随时让OpenClaw帮你编程序了。

 

七、是Claude Code做的吗?

不过,怎么知道这个代码就是Claude Code写的呢?

1、问问OpenClaw自己

刚才的代码是使用Claude Code写的吗?你能帮我增加一个 历史分数记录的功能,并且把写代码时截屏发给我吗?

虽然OpenClaw按要求改造代码了,但是它也坦白了:不是Claude Code做的,原因就是因为前面构建失败了。

唉,该解决的还是得解决。

2、重试一次!

我们换一个skill安装:

安装openclaw-claude-code

 

回了洋洋洒洒一大段。

我们回到容器内看看这个skill:

claude-code-skill --version

确实有这个skill。

看前面提示要查看 Claude Code MCP服务,于是继续问:

查看现在claude code的mcp运行正常吗

MCP没启动哦。而且解释了为啥没有Claude Code也能写代码。

继续提问:

检查是否有claude code

还提供了3种方案:

方案1:使用Claude Code Cli

方案2:配置MCP服务

方案3:补充claude-code-skill所需的软件

对比前面的claude版本:

看来OpenClaw确实发现了张小白配置的Claude Code。

claude --model glm-4.7 "写一个查询黄金实时价格的skill"

看来OpenClaw又想绕过Claude Code自己写skill了。。

所以说AI自主性太强了到底是好事还是坏事呢?

唉,闹了半天还是没有Claude Code,结果做了一个模拟的价格。有啥用呢?!

claude --model glm-4.7 "写一个查询国内92号汽油油价的skill",遇到交互式权限确认的时候默认都同意。
这个skill真的是用claude code做的吗?你有没有证据给我看看

从它执行的命令来看,应该是调用了Claude Code了,但是因为我的语气非常坚决,貌似它有着大模型的通性:在强大压力下表示出犹豫的特征,特别像张无忌。

 

一、背景

在Jetson AGX Orin 32G安装了OpenClaw之后,老设备焕发青春计划 也提上了日程,今天给大家带来的是Jetson AGX Orin 32G(200TOPS)的后一代,但是性能也是降了不少(只有原来的1/3)的Jetson Orin Nano Super(67TOPS)。

二、安装过程

1、登录设备

查看镜像(主要是看有没有安装docker)

sudo docker images

看来系统中已经带了docker。

那么就用docker安装吧!

2、下载代码仓

git clone https://github.com/openclaw/openclaw.git

 

3、docker版安装及配置过程(第一次:失败)

cd openclaw
./docker-setup.sh

这个脚本需要sudo才能执行,但是如果把当前用户加入docker组就不用了。

 

4、将用户加入docker用户组

试图将当前用户加入docker用户组,保证用户执行docker不需要sudo

sudo usermod -aG docker $USER

重新登录:

id

5、更新docker镜像站设置

编辑 /etc/docker/daemon.json文件,然后重启docker:

{
    "runtimes": {
        "nvidia": {
            "args": [],
            "path": "nvidia-container-runtime"
        }
    },
    "default-runtime": "nvidia",
    "registry-mirrors": [
        "https://docker.1ms.run",
        "https://docker.xuanyuan.me",
        "https://docker.hlmirror.com",
        "https://hub-mirror.c.163.com",
        "https://mirror.baidubce.com",
        "https://docker.xuanyuan.me",
        "https://docker.1ms.run",
        "https://docker.m.daocloud.io",
        "https://pull.loridocker.com",
        "https://ccr.ccs.tencentyun.com",
        "https://dockerpull.cn"
    ]
}

(注:docker镜像站会不停的失效,应该随时去找新的)

重启docker

sudo systemctl daemon-reload
sudo systemctl restart docker
sudo systemctl status docker

6、docker版安装及配置过程(第二次)

cd openclaw
./docker-setup.sh

安装时会自动进入OpenClaw的配置页面:

Yes

Quick Start

Z.AI

Coding Plan CN

贴入API Key,Keep current

Channel配置,Skip

Web Search,Skip

Skills,No

Hooks,全选

记住Token(或者复制下来)

首次配置完毕。

三、验证和使用

1、连接OpenClaw UI控制台

浏览器打开

http://192.168.199.161:18789

另外打开一个终端,在~/.openclaw/openclaw.json增加以下配置:

{
  "gateway": {
    "controlUi": {
       "allowedOrigins": [
          "http://127.0.0.1:18789",
          "http://192.168.199.161:18789"
      ]
    },
  }
}

重启Gateway:

docker ps
docker exec -it [容器ID]
ps -ef|grep openclaw
kill [pid]

当然,也可以不进入容器,直接

docker restart [容器ID]

回到页面,贴入前面复制的token:

点击‘连接’

在openclaw.json中增加如下配置:

 "controlUi": {
      "allowInsecureAuth": true,
      "dangerouslyDisableDeviceAuth": true
    },

然后重启容器:

docker restart [容器ID]

再次连接:

2、飞书Channel安装与配置(异常处理)

这块跟其他的docker安装方式类似。

只不过张小白在安装的过程中遇到了插件失效的问题:

张小白处理这个问题的方法很简单,就是把问题现象放到OpenClaw UI界面的对话框里面:

让龙虾自己解决就行。当然,它有可能第一次没有解决,那你可以问第二次:

第二次没有解决,你就变着法子问第三次:

第三次不行,你再搞第四次:

终于这个插件能正常完成安装:

然后你重新配置飞书Channel:

反正充分相信小龙虾的能力,另外有点耐心就行了。

3、飞书对话验证

这个时候,仍然选择相信龙虾,在UI聊天框输入对应命令:

注意,你的懒人技能就是把命令扔给小龙虾,把错误的现象贴给 小龙虾。

 

posted @ 2026-04-01 17:47  CharyGao  阅读(43)  评论(0)    收藏  举报