有人让AI自己养了个会喘气的维基,还不用联网
这个系统像个夜班饭馆的勤快伙计——凌晨三点技术博客刚上新,两小时后摘要就码在知识库页面底下了;中午又默默把一篇论文拖进来,顺手加了个“争议点对比”小节。
知识维护头一回甩开了“人问一句、AI答一句”的老套路,变成AI自己盯、自己连、自己沉淀的闭环。
项目脱胎于Karpathy提过的LLM Wiki构想,一个月前被一位个人开发者用Gemini 3.1 Flash Lite搭了出来。这模型是谷歌最新推的轻量级大语言模型,跑在Google ADK上——那是专为边缘和本地AI设计的开发套件。整套代码开源,部署成本低到能塞进月付几美元的云实例里。
没碰任何闭源API密钥,也没开订阅服务。所有推理全在本地跑,模型权重公开可验,输入输出全程攥在自己手里。
它终于让“维基”变回该有的样子:活的、会喘气的、自己校准的信息生命体。
不过当人人都能养一个动态知识体,“权威版本”这词恐怕要更虚了。系统怎么处理冲突信息或垃圾来源?“争议点对比”靠什么生成、又怎么验证?目前没交代。
完蛋,我刚试了下本地部署,文件名果然都是乱码。