智算多多
官方邮箱:service@zsdodo.com

公司地址:北京市丰台区南四环西路188号总部基地三区国联股份数字经济总部


据最新媒体报道,博通与谷歌达成长期协议,双方将围绕 TPU 展开更深层次合作,内容不仅包括下一代 TPU 的共同开发与供应,还延伸到 AI 服务器机柜中的网络及相关组件。这则消息之所以引发市场高度关注,并不只是因为一纸长期合作本身,而是因为它再次说明:在 AI 算力竞赛进入深水区之后,真正的竞争已经不只是“谁的芯片更强”,而是“谁能提供更完整、更可控、更低成本的算力体系”。
如果说英伟达代表的是当前 AI 时代最成熟的通用算力平台,那么博通与谷歌推进的 TPU 路线,则代表着另一种 increasingly clear 的产业方向——由超大规模云厂商主导、自研架构定义、再由 ASIC 伙伴深度协同落地的“定制化算力体系”。Google 官方资料显示,TPU 是其为机器学习工作负载打造的专用 ASIC;最新的 TPU7x 属于第七代 Ironwood 家族,可在一个 Pod 中扩展到 9,216 颗芯片,面向大规模训练与推理。换句话说,谷歌押注的不只是单颗芯片性能,而是一整套从芯片、互连到集群级调度的系统工程能力。
而博通在这条路上的角色,并不只是“代工伙伴”那么简单。Broadcom 官方在 2026 财年第一季度财报中表示,公司 AI 相关收入同比大增 106%,达到 84 亿美元,增长动力来自定制 AI 加速器和AI 网络。这意味着,博通正在 AI 竞争中走出一条区别于英伟达的路线:它不直接用统一品牌的通用 GPU 去覆盖所有客户,而是更深地嵌入到头部云厂商的自研芯片战略中,成为“定制算力底座”的关键搭建者。谷歌的 TPU、云端 AI 服务器的网络骨架,以及未来更大规模的数据中心互连,都可能成为博通价值放大的核心场景。
从产业竞争的角度看,博通与英伟达的差异,首先体现在商业模式上。英伟达卖的是一种标准化、可复制、面向全行业开放的 AI 计算平台。无论是 Blackwell 架构、Tensor Core、Transformer Engine,还是 NVLink/NVSwitch,本质上都在强化其“通用 GPU + 软件生态 + 互连标准”的统治力。NVIDIA 官方资料显示,Blackwell 继续强调大模型训练与推理性能,并通过 NVLink 扩展到大规模 GPU 集群。它最大的护城河,不只是硬件本身,而是 CUDA、TensorRT、NeMo 等组成的完整生态。

而博通的优势则在于深度定制与成本效率。它不需要复制一个“英伟达式帝国”,而是通过与 Google 这样的超大规模客户共研 ASIC,帮助客户把特定模型、特定业务、特定数据中心架构固化到芯片与网络之中。对谷歌来说,这种模式的价值非常直接:它既能减少对外部通用 GPU 的依赖,也能把算力成本、功耗效率和部署节奏尽量掌握在自己手中。2025 年以来,外部报道也反复指向同一个趋势——谷歌一边延续与博通的 TPU 合作,一边引入更多伙伴参与不同代次或不同模块的开发,本质上是在强化自研 ASIC 体系的弹性与议价能力。
但这并不意味着英伟达正在被“替代”。恰恰相反,Google Cloud 官方页面显示,其云平台仍在持续提供多代 NVIDIA GPU,包括 H100、H200、B200、GB200、GB300 等;Google Cloud 也公开推出了基于 NVIDIA Blackwell 的相关 VM 产品。这说明眼下最真实的产业格局,并不是“TPU 打败 GPU”,而是“自研 ASIC 与通用 GPU 并存”。英伟达仍然掌握最强的开发者生态和最广泛的行业适配能力,而谷歌借助博通推进 TPU,则是在内部核心业务和部分云场景中,逐步构建一条能够与英伟达平行存在的算力通道。
也正因此,“博通与谷歌达成长期协议”真正值得关注的,不只是订单规模或合作年限,而是它折射出的算力竞争逻辑变化:过去市场常把 AI 芯片竞争简单理解为“谁是下一个英伟达”,但现在越来越清楚,未来的算力霸主争夺战不会只有一种胜利方式。一种方式是英伟达式的,依靠通用 GPU、软件生态和系统平台,持续巩固全行业标准;另一种方式则是博通协同谷歌式的,依靠定制 ASIC、专属网络和超大规模云厂商的内部闭环,做出另一套高效率、高粘性的算力系统。前者争夺的是“行业通用入口”,后者争夺的是“头部客户的基础设施主权”。
从这个意义上说,博通与英伟达并不是简单的一对一对手,而是两种 AI 基础设施路线的代表。英伟达仍是当下最强的算力王者,但博通借助 Google TPU 体系切入,实际上是在帮助云巨头把“算力自主权”从采购环节推进到设计环节。谁能在未来几年真正占据上风,取决于两个关键变量:一是大模型训练与推理需求,究竟更偏向通用平台还是专用优化;二是头部云厂商是否愿意持续投入巨额资本,把自研 ASIC 从“辅助方案”升级为“核心主力”。如果答案越来越偏向后者,那么博通所处的位置,可能会比很多人想象得更接近下一阶段 AI 算力权力结构的中心。

AI 芯片竞争已经从单点性能之争,进入到平台、供应链、生态与资本开支协同的全面战争。英伟达依旧是明面上的算力霸主,但博通与谷歌 TPU 联盟所代表的力量,正在告诉市场——霸主之争,未必只会诞生于通用 GPU,也可能从定制 ASIC 的长期共研和云厂商的体系化自立中改写。
