AI Pulse

LeCun达沃斯斥LLM洗脑硅谷:纯生成架构永远造不出猫级智能体

@AYi_AInotes: 图灵奖获得者、AI三大教父之一的LeCun在达沃斯的发言,算是把整个硅谷的遮羞布扯了。他说现在整个行业都被LLM彻底洗脑了,所有人都在同一条赛道上互相挖人,谁敢偏离主流谁就被骂落后。这也是他离开Meta的真正原因,连Meta都已经LLM-pilled,他不想再跟风了。

@0xseedance 谢谢宝子,一起学习!

@0xcrypto458579 一起学习!

@SRunner168 indeed

@tui_te_da_wang 谢谢!

@blanplan 嗯嗯,数据飞轮确实是当前最大瓶颈,但LeCun核心观点是:纯next-token架构本身就只能做统计关联,永远建不出真正的causal world model,数据再多,也跨不过这个paradigm limit,混合栈才是真正的解法。

@hmcha446 yeah

@contractsoul 确实,LLM在实际问答里已经远超纯下一个token瞎猜,很多时候表现得也很有理解,但LeCun的核心点是:当前纯生成式架构(只有统计关联)天生缺世界模型,没法可靠预测行动后果、做长期规划、拥有物理常识。

@Scobleizer 哇偶,感谢Scobleizer的共鸣,您多年来一直强调世界模型在机器人和娱乐领域的核心价值,现在硅谷的实践正在印证LeCun的判断。LLM+世界模型的混合架构确实是下一阶段的关键,您觉得娱乐或具身智能哪个会先迎来爆发?期待您的观察。

@yu365679464 @ylecun 只看他们做了多少

@StevenMadec yeah

@nianchujiu 🙏

@s3xyOstrich @ylecun 啊,又转发了吗?

当前中文稿(如有): LeCun在达沃斯说,整个AI行业已被大语言模型(LLM)彻底洗脑。这意味着,技术路线、人才争夺、融资方向都高度趋同,偏离主流者会被贴上‘落后’标签。

他离开Meta的真正原因,是Meta也已‘LLM-pilled’——即全面拥抱LLM范式,而他不愿再跟风。这意味着,连最核心的工业界实验室,也放弃了对替代路径的系统性投入。

他指出:纯生成式架构(包括LLM、视觉语言模型VLM、视觉语言动作模型VLA)永远无法造出猫级智能体。这意味着,这类模型的本质局限不是数据量或算力问题,而是范式本身——它们只是‘下一个token预测器’,只能建统计关联,无法构建因果性的世界模型。

有人补充:数据飞轮确实是当前瓶颈,但LeCun的核心判断更根本——再多数据,也跨不过‘next-token’架构的范式极限。这意味着,混合架构(如结合世界模型与生成模型)不是优化选项,而是必要前提。

另一条共识是:当前LLM在问答中表现‘像有理解’,但缺的是物理常识、行动后果预测和长期规划能力。这意味着,表面智能不等于底层认知能力,而后者恰恰依赖世界模型。

这条路能不能走通,取决于工具链是否支持新范式落地。但至少,它把‘要不要试’这件事,变简单了。

📎 阅读原文 · @AYi_AInotes on 𝕏

📬 订阅 AI Pulse

每天两次更新,不错过重要信号

▲ 回到顶部