Google出了一款离线AI听写App,但没用Gemini
开会时掏出手机录一段话,五秒后得到一封措辞得体的邮件草稿;地铁上没信号,也能把灵感口述成段落;医生查房边走边说,病历自动生成,全程语音不出设备。
Google刚上线的iOS应用「Google AI Edge Eloquent」,用的是开源轻量级模型Gemma(不是Gemini),所有语音识别都在手机本地完成。这意味着:你说话的内容从不离开设备,也不依赖网络,更不会被上传到任何服务器。
它能实时转写,暂停后自动剔除“呃”“啊”“就是说”这类填充词,还能一键生成要点、改写为正式/简短/长篇版本。这意味着:过去需要人工整理的即兴表达,现在一步到位变成可用文本。
App Store页面曾提过Android版和系统级键盘集成,还暗示会支持悬浮按钮——就像Wispr Flow那样,随时唤起听写。这意味着:这不是一个孤立工具,而是Google在为整个安卓生态铺一条「离线AI输入」的新路径。
别人在卷云端响应速度,Google却把ASR模型压缩进手机,在不联网的前提下,让AI听写第一次具备了隐私性、即时性和可靠性。这背后不是技术妥协,而是把AI从「必须连网才能聪明」,拉回「本来就应该在你手边」的位置。
现在它还只是iOS上的一个新图标,历史记录只能查最近几次转写,WPM统计也略显简陋——但当你发现,自己第一次对一款听写App产生了‘不想关权限’的信任感,事情就悄悄变了。