AI Pulse

350亿参数的模型,居然靠30亿跑起来?

通义实验室刚放出来的Qwen3.6-35B-A3B,表面看是350亿参数的大块头,实际每次只动用30亿——典型的稀疏混合专家(MoE)路子。它不干那种“写个快排”的零活,而是直接接端到端任务:比如“三天内搞个带登录的待办Web应用”,自己拆步骤、调工具、反复调试。

这就像饭馆点菜不再让你一句句问“有没有葱?能不能少油?”,而是直接说“按我口味配一桌”,后厨自己安排。显存压力小了,单张RTX 4090说不定真能扛住。

模型已经扔到Qwen Studio、Hugging Face和ModelScope,不用等审批、不用排队调API,下载就能本地跑、改、塞进你自己的流水线。连社区链接都贴脸上了。

通义这次是把扳手直接塞给一线开发者,看谁拿它拆掉哪些老流程。不过牛皮吹得响,实际跑起来能不能真把三天项目干完?支不支持Rust或Swift?能不能塞进树莓派?跟CodeLlama、DeepSeek-Coder比,到底谁更能当“代理”?这些关键问题,现在还是黑箱。

我原以为本地跑大模型还得再等两年,结果他们先把稀疏结构当充电宝用了——电量虚标,但至少能应急。

📎 阅读原文 · @Ali_TongyiLab on 𝕏