AI Pulse

在手机上三步跑起谷歌最新AI,不用联网也不用等

有人刚拆开新手机,还没装完微信,就顺手在备忘录里问它:‘下周北京下雨吗?’——答案不是来自云端服务器,而是手机自己算出来的。

这背后是谷歌刚发布的轻量级AI模型Gemma 4,配合开源工具OpenClaw和Ollama,三步就能在设备本地启动:装一个叫Ollama的运行环境,下载Gemma 4模型,再用OpenClaw把它接进图形界面。这意味着什么?你不再需要把问题发到远方的数据中心,也不用担心对话被记录或延迟卡顿。

硬件门槛低到出人意料:入门级安卓手机(E2B级别)就能跑通基础任务;主流笔记本(E4B)可支撑多轮复杂推理。这意味着什么?AI第一次真正意义上‘随身化’——不是靠信号强弱,而是靠设备本身能算。

过去五年,我们习惯把AI当服务用:登录、订阅、等待响应。但现在,有人把AI当成一个可安装的App,甚至一个可复制粘贴的配置文件。这意味着什么?真正的本地智能代理,不再依赖厂商云,而取决于你愿不愿意点开终端敲三行命令。

这条路的终点未必是人人写提示词,但起点已经变了:AI不再是你申请来的权限,而是你装进设备里的一个东西。

下次看到朋友对着手机小声提问,别急着想‘他连的哪家API’——先看看他手机里有没有Ollama图标。

📎 阅读原文 · @minchoi on 𝕏