Uber跳槽AWS,只因芯片能省下整支运维团队
去年底,Uber工程师还在把订单匹配系统从x86服务器迁到Oracle云的Ampere ARM芯片上,一边改代码一边写文档解释‘为什么ARM突然能扛住每秒三万次派单请求’。
现在,他们正把同一套系统,连同实时路径规划、动态定价模型,一起切到AWS Graviton CPU和刚上架的Trainium3 AI芯片上。这意味着:原来需要三台x86服务器+两台GPU服务器协同完成的推理任务,现在一块Trainium3就能跑满,功耗降了40%,延迟少了17毫秒。
这改变了什么?不是账单变薄了,而是系统响应快到司机接单后0.8秒内,乘客手机就弹出预估到达时间——这个数字,直接关联取消率和司机留存。
更关键的是,Uber曾公开说‘双云策略是技术主权的底线’,但这次没提Oracle或Google。它把最敏感的实时决策模块交给AWS,只因Trainium3的编译器能原生支持其自研的Rust调度框架,而其他云厂商的AI芯片还要额外加一层转换层。
别人没注意到,但你可能会想到:当一家公司把核心业务从‘选哪家云’变成‘选哪块芯片’,真正的竞争已不在数据中心,而在芯片指令集与业务逻辑的咬合精度。
现在,OpenAI、Anthropic、Apple都在用Trainium,但没人公开说——它们真正要验证的,不是算力密度,而是能否让一个十年老系统,在不重写一行业务代码的前提下,突然获得AI原生能力。