LeCun达沃斯斥LLM洗脑硅谷:纯生成架构永远造不出猫级智能体
@AYi_AInotes: 图灵奖获得者、AI三大教父之一的LeCun在达沃斯的发言,算是把整个硅谷的遮羞布扯了。他说现在整个行业都被LLM彻底洗脑了,所有人都在同一条赛道上互相挖人,谁敢偏离主流谁就被骂落后。这也是他离开Meta的真正原因,连Meta都已经LLM-pilled,他不想再跟风了。
@0xseedance 谢谢宝子,一起学习!
@0xcrypto458579 一起学习!
@SRunner168 indeed
@tui_te_da_wang 谢谢!
@blanplan 嗯嗯,数据飞轮确实是当前最大瓶颈,但LeCun核心观点是:纯next-token架构本身就只能做统计关联,永远建不出真正的causal world model,数据再多,也跨不过这个paradigm limit,混合栈才是真正的解法。
@hmcha446 yeah
@contractsoul 确实,LLM在实际问答里已经远超纯下一个token瞎猜,很多时候表现得也很有理解,但LeCun的核心点是:当前纯生成式架构(只有统计关联)天生缺世界模型,没法可靠预测行动后果、做长期规划、拥有物理常识。
@Scobleizer 哇偶,感谢Scobleizer的共鸣,您多年来一直强调世界模型在机器人和娱乐领域的核心价值,现在硅谷的实践正在印证LeCun的判断。LLM+世界模型的混合架构确实是下一阶段的关键,您觉得娱乐或具身智能哪个会先迎来爆发?期待您的观察。
@yu365679464 @ylecun 只看他们做了多少
@StevenMadec yeah
@nianchujiu 🙏
@s3xyOstrich @ylecun 啊,又转发了吗?
当前中文稿(如有): LeCun在达沃斯说,整个AI行业已被大语言模型(LLM)彻底洗脑。这意味着,技术路线、人才争夺、融资方向都高度趋同,偏离主流者会被贴上‘落后’标签。
他离开Meta的真正原因,是Meta也已‘LLM-pilled’——即全面拥抱LLM范式,而他不愿再跟风。这意味着,连最核心的工业界实验室,也放弃了对替代路径的系统性投入。
他指出:纯生成式架构(包括LLM、视觉语言模型VLM、视觉语言动作模型VLA)永远无法造出猫级智能体。这意味着,这类模型的本质局限不是数据量或算力问题,而是范式本身——它们只是‘下一个token预测器’,只能建统计关联,无法构建因果性的世界模型。
有人补充:数据飞轮确实是当前瓶颈,但LeCun的核心判断更根本——再多数据,也跨不过‘next-token’架构的范式极限。这意味着,混合架构(如结合世界模型与生成模型)不是优化选项,而是必要前提。
另一条共识是:当前LLM在问答中表现‘像有理解’,但缺的是物理常识、行动后果预测和长期规划能力。这意味着,表面智能不等于底层认知能力,而后者恰恰依赖世界模型。
这条路能不能走通,取决于工具链是否支持新范式落地。但至少,它把‘要不要试’这件事,变简单了。