在可租用GPU网络上训练的开源AI模型首次发布
0G Labs 发布了旗下第一个专有 AI 模型 0GM-1.0-35B-A3B。它采用混合专家架构,总参数量 35B,但每次推理只激活 3B 参数——这种设计在控制计算成本的同时保持模型能力。
模型完全在 0G Labs 自己的去中心化 GPU 网络上训练,而这个网络不是私有的伪集群。任何人都可以像租用云服务器一样,在 0G Compute 上租用同样的 GPU 来训练自己的模型。0G Labs 计划下一步让外部团队直接使用与自家相同的训练栈,进一步降低硬件门槛。
0GM-1.0 以 Apache 2.0 许可证开源,模型权重已上传至 Hugging Face。开发者可以免费下载、修改,用于自己的应用,无需支付 API 费用。目前模型已在 0G Private Computer 上运行,每次推理都经过 TEE(可信执行环境)认证,确保数据在处理过程中不被泄露或篡改。对于医疗、金融等敏感场景,这种保护机制增加了可信度。
0G Labs 在博客中提供了完整的基准测试数据、架构细节以及针对智能体编码的微调方案。它没有说这个 35B 模型性能超过 GPT-4 或 Llama 3 等主流模型。事实上,去中心化网络的训练效率、成本与传统云服务相比如何,目前尚不清楚。TEE 认证的推理是否会影响响应速度,也没有明确说明。
但 0G Labs 认为,这次训练运行本身就是推理服务可行性的证明——在公开可租用的 GPU 网络上训练并运行一个 35B 参数的模型,这件事已经做成了。这是 AI 模型开发权从少数巨头向更广泛群体扩散的早期信号。