OpenAI新模型让你用语音直接控制App操作
OpenAI刚发布了一个新模型gpt-realtime-1.5,专门用来做能对话的应用。说白了,用户可以直接用语音控制App的状态——比如“把这张图调亮一点”,App就会照做,不用再点菜单或按钮。
他们还做了个示例应用叫Chappy,代码已经开源。开发者可以直接fork,接上自己的工具继续开发。推文里特意提到了@pedropverani,估计是早期测试的人。
这一套把App的使用门槛拉低不少。不熟悉界面的人,说话肯定比点按钮自然。开发者有了开源示例,能快速搭个语音控制的雏形,可能让这类应用普及得更快。
不过OpenAI没提几个关键细节:这个模型的延迟和准确率怎么样,支不支持中文,开源repo用的什么许可证。这些直接决定了它离真正可用还有多远。