NVIDIA 推出本地化沙盒AI助手搭建教程
NVIDIA AI 开发团队发布了一个周末实践项目:从零搭建一个完全运行在本地、隔离沙盒环境中的AI助手。这意味着你的数据不会离开设备,也不依赖云端API调用。
这个项目基于开源项目 @openclaw,使用 NVIDIA 自研的 NemoClaw 框架,并依托 NVIDIA DGX Spark 平台启动。这意味着它不是概念演示,而是可直接在支持的硬件上运行的端到端方案。
教程提供分步指引,目标是构建一个‘始终在线’(always-on)的代理。这意味着它能持续响应本地指令,而非每次请求都重新加载模型或连接远程服务。
@openclaw 是该项目的底层实现载体,而硬件与框架支持由 NVIDIA 提供;技术细节和启动链接已公开,其中一条指向部署说明,另一条指向代码仓库。
这条路的起点,不是订阅服务,也不是调用API,而是一次本地环境初始化——你控制全部输入、全部输出、全部算力。