NVIDIA 开源了一个「AI 沙箱」,20K Star,让 Agent 跑代码不再裸奔
你让 AI Agent 帮你跑代码,它随手一个 rm -rf /——你慌不慌?
这不是段子。现在几乎所有的 AI Agent 框架都在疯狂加"工具调用"能力,让 Agent 能读写文件、执行命令、访问网络。但很少有人认真想过:Agent 执行的代码,谁来保证安全?
NVIDIA 给了一个答案:NemoClaw,一个专门为 OpenClaw Agent 设计的安全沙箱参考栈,3 月 16 日开源,不到两个月已经冲到 20K Star。
本文提纲
- NemoClaw 是什么,解决什么问题
- 四层安全防线:比 Docker 多了什么
- 架构拆解:Gateway + Sandbox + Blueprint
- 五分钟跑起来
- 哪些人应该关注
NemoClaw 是什么
NVIDIA 官方定义很简单:
一个开源参考栈,让 OpenClaw 常驻助手更安全地运行。
翻译成人话:你在跑 AI Agent 的时候,Agent 会生成代码、执行命令、访问 API。这些操作如果没有隔离,就等于把你的机器完全暴露给了一个不可控的 AI。NemoClaw 做的事情就是把 Agent 关进一个"笼子"里,让它只能做被允许的事。
它底层用的是 NVIDIA OpenShell 运行时(NVIDIA Agent Toolkit 的一部分),在上面加了引导式安装、安全加固的 Blueprint、状态管理、路由推理等能力。
目前还是 Alpha 阶段,接口和行为随时可能变。但 20K Star 和 1093 次提交说明社区关注度很高。
四层安全防线
这是 NemoClaw 最硬核的部分。安全隔离不是简单套个 Docker 就完事,它分了四层:
第一层:网络安全
默认策略是拒绝所有出站流量。Agent 想访问任何外部地址,必须明确配置白名单。
规则分两个级别:
- L4 层:二进制级端点规则,控制能连哪个 IP:Port
- L7 层:路径级 HTTP 规则,精确到 URL Path
还内置了一套 Operator 审批流程——Agent 想访问一个新域名,需要人工确认。预设了好几种策略模板:Brave、GitHub、Discord、Slack、Telegram 等,按场景选择即可。
三个安全等级:
- Restricted:最严,只开放必要端口
- Balanced:常用服务可用
- Open:宽松模式,适合开发调试
第二层:文件系统隔离
用的是 Landlock LSM(Linux Security Module)强制执行。
核心思路:
- /usr、/lib、/etc 等系统目录只读
- /sandbox/.openclaw 用 chattr +i 锁死(连 root 都改不了)
- 配置文件有完整性哈希校验
- 只有 /sandbox/.openclaw-data、/sandbox/.nemoclaw、/tmp 可写
Agent 就算拿到了 root 权限,也改不了系统文件。
第三层:进程隔离
容器层面的加固:
- 丢弃所有 Linux capabilities(cap_net_raw、cap_dac_override 等)
- Gateway 进程用独立的 gateway 用户运行,跟 Sandbox 隔离
- 启用 no-new-privileges 标志
- 进程数限制:ulimit -u 512
- Sandbox 以非 root 用户 sandbox 运行
- PATH 硬化,编译工具链移除
Agent 就算想编译恶意代码,连编译器都找不到。
第四层:推理路由
模型推理请求不直接走外网,而是路由到 inference.local。API Key 存在 Gateway 侧,永远不会进入 Sandbox。
支持的推理后端:
- NVIDIA Endpoints
- OpenAI
- Anthropic
- Google Gemini
- 本地 Ollama
- 实验性支持 NIM / vLLM
这意味着 Agent 看不到你的 API Key,也篡改不了推理请求。
架构拆解
MERMAID_BLOCK_0
整个架构分三个部分:
1. NemoClaw CLI(TypeScript 插件)
用户的入口。安装、 onboard、连接 Sandbox、查看状态,全部通过 nemoclaw 命令完成。它本质上是 OpenShell CLI 的扩展插件。
2. OpenShell Gateway(容器)
部署在 Docker 里的网关容器,内嵌一个 k3s 集群。负责:
- 管理 Sandbox 生命周期(创建、销毁、快照)
- 存储所有凭据(API Key 永远不进 Sandbox)
- L7 代理,重写 Authorization 头做凭据注入
- 网络策略执行
3. Sandbox Pod(Kubernetes Pod)
k3s 集群里的一个 Pod,Agent 就跑在这里面。三层安全防护:Landlock + seccomp + 网络命名空间。沙箱镜像大约 2.4 GB 压缩后。
Blueprint 是一个声明式的 YAML 配置,描述了 Sandbox 应该长什么样——网络策略、文件系统规则、推理配置。生命周期:resolve → verify digest → plan → apply → status。
五分钟跑起来
硬件要求不高:
| 资源 | 最低 | 推荐 |
|---|---|---|
| CPU | 4 vCPU | 4+ vCPU |
| 内存 | 8 GB | 16 GB |
| 磁盘 | 20 GB | 40 GB |
软件要求:Node.js 22.16+、npm 10+、Docker。
一行命令安装:
curl -fsSL https://www.nvidia.com/nemoclaw.sh | bash
安装过程会引导你完成:
1. 创建 Sandbox
2. 配置推理后端(NVIDIA Endpoints / Ollama 等)
3. 应用安全策略
装完直接连:
# 连接到 Sandbox
nemoclaw my-assistant connect
# 在 Sandbox 里打开 TUI 聊天界面
openclaw tui
# 或者用命令行发送单条消息
openclaw agent --agent main --local -m "hello" --session-id test
卸载也干净:
nemoclaw uninstall
# 加 --delete-models 会顺带删掉 Ollama 模型
整个安装不需要 root 权限,Node.js 通过 nvm 装,NemoClaw 通过 npm 装,都是用户级目录。
哪些人应该关注
做 AI Agent 开发的:如果你在构建能执行代码的 Agent,NemoClaw 的安全模型值得参考。尤其是四层隔离的设计思路,比单纯用 Docker 跑个容器强太多。
关注 AI 安全的:凭据不进 Sandbox、推理请求走代理、网络默认拒绝——这些理念可以借鉴到你自己的安全方案里。
想本地跑 AI Agent 的:NemoClaw 支持本地 Ollama,DGX Spark 上也有完整的 playbook。不想把代码传到云端,这套方案能让你在本机安全地跑 Agent。
注意事项:Alpha 阶段,API 随时变。生产环境别直接上,但做技术验证和原型开发完全够了。
项目的安全报告走 NVIDIA PSIRT 私密渠道,不公开开 Issue。Apache 2.0 开源协议。
项目地址:https://github.com/NVIDIA/NemoClaw
——来自公众号:人生几十年噢耶
作者: itech001
来源: 公众号:AI人工智能时代
主页: https://www.theaiera.cn,每日分享最前沿的AI新闻和技术。
本文首发于 AI人工智能时代,转载请注明出处。

浙公网安备 33010602011771号