苹果手机上跑Gemma 4,连网都不用
有人在地铁里用手机查维基百科、调出实时地图、把会议录音转成带时间戳的笔记——这些操作背后,没有一次请求发往云端。
AI Edge Gallery 是谷歌推出的 iPhone 应用,它让 Gemma 4 这类开源大语言模型直接在手机芯片上运行。这意味着:你输入的问题、拍下的照片、录下的语音,全程不经过任何服务器,也不依赖网络连接。
它支持「思考模式」,能逐行展示模型如何拆解问题、调用工具、验证事实——就像打开一个AI助理的笔记本,看到它边想边写的过程。这意味着:你不再只能猜模型怎么回答,而是能判断它哪步对、哪步错。
Agent Skills 功能允许模型主动调用维基百科、交互地图、图文摘要卡等工具。这意味着:它不再是被动应答的聊天框,而是一个能自己查资料、画路线、生成报告的轻量级助手。
Ask Image 和 Audio Scribe 分别让手机摄像头和麦克风变成AI的感官入口:拍张电路板照片就能识别元件,录一段方言对话就能实时转译成文字。这意味着:AI第一次真正嵌入了你日常最自然的动作里——看、听、问。
所有模型都可下载、替换、压测;Tiny Garden 这个种菜小游戏,甚至用的是一个仅2.7亿参数的微调模型。这意味着:不是只有顶级旗舰才能跑AI,中端机也能成为实验场。
这款应用开源、免费、无账号体系,GitHub仓库已公开。背后的逻辑是:当模型足够小、工具链足够成熟,AI的控制权就从云厂商悄悄滑向终端设备本身。
现在,它只在iPhone上运行,但Mac版已标注兼容M1芯片——下一个被‘本地化’的,会是你的笔记本电脑吗?