它没堆算力,却在测试中碾压大模型
实验室里,博士生花三周复现一篇论文;AI助手花两分钟读完摘要,列出五个可验证的漏洞,附上三组对比实验建议。
这是「AI科学家」正在做的事。它不写代码、不画图表,但能像人类研究员一样质疑假设、设计对照、追踪逻辑断点。背后的系统不是更大参数的模型,而是把科研过程本身编码进训练闭环。
这意味着:科研中那些靠经验积累的‘直觉’,第一次被拆解成可迭代的步骤。
它没有用更多GPU,而是把每篇论文的审稿意见、撤稿声明、作者勘误都喂进记忆模块;它的‘更好记忆’不是存得更多,而是记住了谁在什么情境下改过什么结论。
这意味着:模型进步不再只靠算力军备竞赛,而开始依赖学术活动本身的结构化沉淀。
它进化得比融资更多的对手更快——不是因为算法更炫,而是因为它的训练数据里,有真实科研者反复推翻自己的过程。
这意味着:AI第一次不是在模仿科学家的输出,而是在复刻他们自我修正的节奏。
别人在比谁的模型更大,它在比谁更常承认自己错了。
这条路的终点未必是通用人工智能,但起点已经划出一条新分界线:AI的‘聪明’,正从回答问题的能力,转向质疑问题的能力。