AI Pulse

谷歌第八代TPU发布:专为AI代理时代设计的双芯片架构

谷歌第八代TPU发布:专为AI代理时代设计的双芯片架构

谷歌在Cloud Next大会上发布了第八代张量处理器(TPU),包含两颗独立设计的芯片:TPU 8t用于大规模模型训练,TPU 8i用于低延迟推理。这意味着AI基础设施不再追求‘通用加速’,而是按任务本质拆分——训练要吞得下万亿参数的反复迭代,推理要跟得上AI代理实时决策、多步协作、自我修正的节奏。

TPU 8t和TPU 8i由谷歌与DeepMind联合设计,专门应对AI代理时代的新负载:模型需自主推理、执行多步骤工作流,并在闭环中从自身行动中学习。这意味着硬件必须同时支持长周期训练和毫秒级响应,而过去单芯片兼顾两者的做法已逼近物理极限。

这两颗芯片延续了TPU十年来的核心逻辑:软硬协同定制。它们采用定制数值格式、液冷系统和专用互联结构,而非依赖通用GPU架构。这意味着每瓦电力能完成更多有效计算——不是纸面峰值算力更高,而是实际训练一个大模型或部署一个代理系统时,耗电更少、时间更短、扩展更稳。

TPU已多年支撑Gemini等前沿基础模型,而第八代是这一体系的集大成者。它不只升级数字,而是把‘AI代理能否真正落地’这个软件层问题,部分转化成了硬件层可解的问题:当推理延迟压到足够低、训练吞吐提得足够高,开发者才可能认真搭建需要连续感知-规划-行动的AI系统。

这条路能不能走通,取决于工具本身够不够用。但至少,它把‘要不要试’这件事,变简单了。

📎 阅读原文 · Google