一个开源工具突然能生成视频了,而且直接对接九家AI公司
设计师在剪辑软件里卡住:想加一段AI生成的3秒转场动画,得新开三个网页,分别注册阿里、MiniMax、xAI的测试账号,复制粘贴提示词,再手动下载、导入、对齐时间轴。
OpenClaw 下一版原生支持视频生成,背后没有自研模型,只做了三件事:识别输入类型、匹配九家服务商的能力边界、封装调用链路。它把 Alibaba 的 Tongyi Wanxiang、Google 的 Veo、xAI 的 Grok Video 等接口,变成下拉菜单里的选项。 这意味着,生成动作本身不再绑定某家厂商——同一段提示词,可一键发往 Qwen 或 fal,看谁出得快、谁画得稳、谁不抽帧。
九家名单里没有 Stability AI、Runway 或 Pika,但有 BytePlus(字节跳动海外视频API)、MiniMax(国内少有的开放视频API的创业公司)、Together(主打开源模型托管)——它们共同点不是名气,而是「已开放视频生成的生产级API」。 这意味着,视频生成的基础设施层,正从「大厂独占实验田」转向「可插拔服务模块」。
别人还在争论哪家模型更像人,OpenClaw 已经把「换模型」做成和「换滤镜」一样轻。 这不意味着模型不重要,而说明:当调用成本趋近于零,胜负手就从「谁最先做出」,悄悄移向「谁最方便试错」。
现在打开 OpenClaw,你仍要自己写提示词、选时长、设宽高比——但它不再问你「用哪家」,而是问你「这次想试试哪家」。