他不用数据库,只用文件夹建知识库,LLM却比人更懂结构
有人在整理三年来的AI论文笔记时,发现每次重读都要花20分钟定位上下文;另一个人打开自己的知识库,输入‘找2023年关于MoE稀疏训练的所有实验对比图’,三秒后弹出三张PNG和一段带引用的总结。
这个知识库没有数据库、没有向量索引、没有API服务——只有本地文件夹:一层层嵌套的.md、.png、.csv和.py文件,根目录下一份AGENTS.md写着所有规则。LLM不靠微调,只靠读这份文档,就理解了‘哪里该放图、哪里该写假设、哪个子目录对应哪个模型变体’。 这意味着:知识组织的门槛,从搭建检索系统,降到了写清楚‘这个文件夹是干啥的’。
每份新资料仍需人工加入,但加到第五份后,LLM已能根据前例自动建议路径;第十份时,只需说一句‘存到wiki: /moe/ablation/’,它就生成标题、归类、更新索引页。 这意味着:不是人在教AI怎么记笔记,而是AI在帮人发现——自己原来早有一套隐性分类逻辑。
别人用RAG拼接向量库和大模型,他让LLM直接‘读’文件系统结构;别人为schema写JSON Schema,他把schema写成人类可读的段落,再让LLM当实习生去学。 这背后不是技术降级,而是把‘知识如何被理解’这件事,重新交还给语义本身——只要结构足够诚实,语言模型就能从中长出推理能力。
这条路走通的前提,是人愿意先把自己的思考痕迹摊开成文本,而不是藏进PPT或会议纪要里。