AI Pulse

OpenAI新模型让你用语音直接控制App操作

OpenAI刚发布了一个新模型gpt-realtime-1.5,专门用来做能对话的应用。说白了,用户可以直接用语音控制App的状态——比如“把这张图调亮一点”,App就会照做,不用再点菜单或按钮。

他们还做了个示例应用叫Chappy,代码已经开源。开发者可以直接fork,接上自己的工具继续开发。推文里特意提到了@pedropverani,估计是早期测试的人。

这一套把App的使用门槛拉低不少。不熟悉界面的人,说话肯定比点按钮自然。开发者有了开源示例,能快速搭个语音控制的雏形,可能让这类应用普及得更快。

不过OpenAI没提几个关键细节:这个模型的延迟和准确率怎么样,支不支持中文,开源repo用的什么许可证。这些直接决定了它离真正可用还有多远。

📎 阅读原文 · @OpenAIDevs on 𝕏

📬 订阅 AI Pulse

每天两次更新,不错过重要信号

▲ 回到顶部