Mac上已经装好的AI,现在能直接在终端里调用了
凌晨三点,程序员盯着一段报错日志发呆。他不想打开浏览器查文档,也不想切到ChatGPT网页端粘贴——他只想在当前终端里敲一行命令,立刻得到解释。
apfel 就是为这一刻写的:它不联网、不收费、不依赖任何外部服务,只调用 Mac 自带的 Apple Intelligence 模型。这个模型从 macOS 26(Tahoe)起就预装在每台 M 系列芯片 Mac 上,但苹果只让它服务于 Siri 和系统功能。 这意味着,你不需要申请 API 密钥,也不用担心 token 计费或隐私上传——AI 就在你硬盘里,和 Finder、Terminal 一样原生。
它支持管道输入、文件附加、JSON 输出、退出码反馈——所有 UNIX 工具该有的交互逻辑都完整保留。比如把 git diff 结果直接喂给 apfel,再附上团队的代码规范文件,就能生成一句‘是否违反规范’的判断。 这意味着,以前要切换三四个窗口完成的代码审查动作,现在变成一条可复用、可脚本化的 shell 命令。
它还提供 OpenAI 兼容接口(localhost:11434),Python、Node.js 项目只要改一行 base_url,就能把云端调用换成本地推理。 这意味着,本地开发环境突然拥有了和生产环境一致的 AI 能力,且完全绕过网络延迟与配额限制。
最特别的是它的上下文管理策略:自动压缩旧对话、按时间截取、滑动窗口、甚至用本地模型自己总结历史——这些不是配置项,而是对‘设备算力有限’这一物理事实的诚实回应。 这意味着,它没有假装自己是云端模型;它清楚自己的边界,并在边界内把每一分算力都用到了实处。
这条路的起点不是新模型,而是对已有资源的重新发现:当别人还在等 API、搭服务器、买算力时,有人低头看见了自己电脑里早已就位的那一个。 你最近一次在终端里用 AI,是在调用远程服务,还是在调用自己机器上的东西?