MIT新模型RLM颠覆上下文窗口军备竞赛,根治大模型“上下文腐烂”难题
@berryxia: MIT一招,直接把AI巨头过去5年的百亿“上下文窗口军备竞赛”打成笑话!所有大模型最头疼的“Context Rot”(上下文腐烂)终于被干掉了!MIT CSAIL三位研究员刚放出的RLM(Recursive Language Models)直接把规则改了: ✅ 超长文档不再塞进AI窗口,而是以外部Python变量存着 ✅ https://t.co/RUd2Vdsx35
Paper: https://t.co/J7si5mE5y9
https://t.co/Bbe5zYGqrS
MIT CSAIL三位研究员提出RLM(Recursive Language Models),不靠扩大上下文窗口,而是把超长文档存为外部Python变量。这意味着:大模型不再需要把整篇PDF或代码库硬塞进token限制里,避免了因窗口溢出导致的前文遗忘、信息覆盖和推理断裂。
AI在RLM中调用文档的方式,接近人类程序员——用正则搜索定位、按结构导航、对特定段落精准切片。这意味着:处理10万字技术手册时,模型不必‘记住’全部内容,只需像写脚本一样实时读取所需片段。
论文未宣称‘解决’Context Rot,而是重构问题边界:腐烂只发生在‘必须塞进窗口’的前提下;一旦文档脱离窗口、成为可编程访问的资源,腐烂就失去发生条件。这条路不比拼算力,而考验AI能否真正理解并操作数据结构。