
【新智元导读】去GPU化的波浪,还是拦不住了!OpenAI嫌英伟达太慢,Anthropic砸1486亿投靠TPU,老黄被动200亿天价收购「叛徒」自救。如今,算力武备赛崇拜干预能效为王的新时期:谁先卡住「每焦耳每微秒」的极限,谁有时即是下一个十年的霸主。
再过两周,黄仁勋将站上GTC 2026的舞台。
他提前放了话:「咱们准备了几款寰宇向前所未见的全新芯片。」
底气来自一份炸裂的收获单——
英伟达2026财年年收入2159亿好意思元,净利润翻倍,数据中心业务三年翻了13倍。在财报电话会上,CFO径直甩出一个数字:客户还是部署了9吉瓦的Blackwell基础法子!

但诡异的一幕出现了。
财报发布当晚,英伟达盘后一度涨超4%。随后股价悄然转跌,次日径直低开低走,收跌5.46%,整宿挥发数千亿好意思元市值。
华尔街不是看不懂数字,是看懂了趋势。
前有Anthropic甩出210亿好意思元订单,全面采购基于谷歌TPU的算力系统;后有Meta跟谷歌签下数十亿好意思元芯片大单,大规模租用TPU进修模子。
为了给编程带来接近及时的反映体验,OpenAI更是历史上初度将主力级居品GPT-5.3-Codex-Spark,部署在了更低蔓延与更愚顽耗的非GPU芯片Cerebras上。
英伟达最大的几个客户,正在集体漫步筹码。

公共AI芯片中GPU架构和非GPU架构比例(数据泉源:高盛公共投资照顾部)
把柄摩根大通的产能敷陈,谷歌议论在2027年部署600至700万颗TPU,大部分供给Anthropic、OpenAI、Meta和苹果等外部客户。
高盛投资照顾部的模子娇傲,公共AI作事器中非GPU芯片出货占比,将从2024年的36%升至2027年的45%。
雷同的,IDC也瞻望,到2028年,中国非GPU作事器商场规模占比将贴近50%。

GPU的致命短板
一个更深层的调动正在发生:AI的竞争焦点,正从单纯的算力规模,转向对能效比与蔓延的极致追求。
往时拼谁卡多、谁集群大。
当今拼的是,雷同花一块钱,谁能吐出更多Token。
「每好意思元产生的Token数」正在取代峰值算力,成为推断芯片交易价值的核神思划。
究其原因在于,GPU的架构决定了,每次谋略时数据齐要在外部显存和谋略单位之间来回搬运。
旅途长、次数多,能耗就高、蔓延就大。堆更多卡贬责不了这个问题。
路透社爆料,OpenAI已屡次抒发对英伟达芯片的「不悦」——反映速率没达预期,在代码生成居品Codex上感受尤为彰着。
压力迫使英伟达这条「巨龙」寻求改变。
图灵奖得主David Patterson进修在最新照顾中指出,大模子每次token生成齐绕不开数据搬运,而搬运能耗远高于谋略本人。
翌日的中枢命题是「让数据离谋略更近」。
为此,他给出了三个AI芯片的演进标的:近内存处理、3D堆叠、低蔓延互连。
现实上,这些齐指向统一件事——用架构创新质问数据搬运的能耗和蔓延。
换句话说即是,谁能用更低的能耗、更低的蔓延跑通下一代模子,谁就能在翌日十年的算力牌桌上占得先机。

谷歌TPU杀向商用商场
一直以来,谷歌TPU专供自家大模子进修和推理,外东说念主用不到。
前年运行,谷歌把TPU推向了商用。
订单当场涌入。
博通CEO显现,Anthropic下了210亿好意思元的大单;Meta签下数十亿好意思元TPU租借条约;潜在客户还包括苹果和已与SpaceX合并的xAI。
原因不难领路。大模子干预规模化落地阶段,算力需求爆发、资本压力加重,单一依赖GPU的瓶颈越来越彰着。而谷歌TPU的性能,还是具备与顶级GPU分庭抗礼的实力。
2025年推出的第七代TPU,是谷歌迄今为止性能最高、可推广性最强的AI芯片——
单芯片峰值算力4614 TFLOPS(FP8精度),最大集群9216颗芯片、总算力达42.5 EFLOPS。
划要点:TPU v7在同等算力输出下功耗仅为英伟达B200的40%至50%。
不仅如斯,谷歌自研的光电路交换机(OCS)时候,还让万卡级集群罢了近乎线性的加快比。比拟之下,传统GPU集群规模越大,通讯损耗越严重;而TPU集群基本不吃这个亏。

Google TPU v5e、v5p、v6、v7芯片缺欠性能对比
谷歌TPU崛起还有更为径直的例证:在TPU上进修的Gemini 3,在多个巨擘基准测试中位居榜首,为业界顶尖模子之一。
回到资本账上。
TPU凭借AI专用架构带来的2-4倍能效上风,将大模子推理的概述伙本比拟GPU拉低50%以上。而这恰是Anthropic、Meta们用订单投票的压根逻辑。
当下,大多数大模子企业还是在用TPU+GPU的组合来缓解资本压力。
前年11月,开云体育下载半导体照顾机构SemiAnalysis对比大模子公司的采购资本后发现:与OpenAI比拟,同期使用TPU与GPU的Anthropic,在与英伟达谈判时领有更强的议价权。
手里有TPU,就多了一张跟老黄还价还价的牌。翌日头部AI公司约略率齐会走「多芯片并行」阶梯。

OpenAI与Anthropic购买算力的资本对比
性能越过式升迁,顶尖大模子规模化考证,头部公司主动布局——TPU已从算力产业的补充阶梯,升级为主流阶梯。
英伟达一家独大的花式,正在被改写。


十年磨一剑
「TPU之父」要造下一代AI芯片
2025年底,英伟达斥资200亿好意思元,拿下AI芯片创企Groq的中枢时候和团队。
这是英伟达史上最大的一笔往来,溢价近三倍。
Groq创举东说念主Jonathan Ross,被称为「TPU之父」,谷歌TPU的中枢瞎想者之一。离开谷歌后,他创立Groq的宗旨很明确:作念一颗非常谷歌TPU的芯片。
两者的各别在架构。
谷歌TPU走的是「固定架构+集群推广」阶梯。
其中,芯片里面搭载固定谋略单位,依托二维数据流运算;芯片间通过3D Torus拓扑罢了高效互联。架构褂讪,但生动性有限。

谷歌TPU架构
Groq的TSP(Tensor Streaming Processor)则是一种「软件界说硬件」的数据流处理器。
其核表情念是,通过构建可重构的软硬件系统,在保握可编程性的同期,达到接近ASIC的极致性能。
具体来说,芯片里面作念了功能切片化微架构瞎想,勾搭软件层的生动竖立,可把柄不同任求及时调整谋略逻辑和数据流旅途。
同期,依托大容量片上SRAM及静态诊治机制,显赫升迁了数据访存效果并质问搬运能耗。
好意思国DARPA「电子恢复议论」(ERI)高度看好「软件界说硬件」标的,将其列为国度级策略中枢。这亦然Groq被称为「高阶TPU」的原因。
数据娇傲,在换取推理任务中,Groq芯片首token蔓延比谷歌TPU v7质问20%至50%,每token资内容问10%至30%。

这场芯片编削,才刚运行加快
Groq被收编,但「高阶TPU」的进化没停。
国内清微智能、国外Cerebras等公司正在高效数据流动态竖立和先进集成神志上握续浮松。
1. 通过3D Chiplet时候构建三维立体数据流架构。
具体来说,「谋略中枢+3D DRAM芯粒」的组合在垂直与水平两个维度上造成了高效的数据流谋略模式,浮松了传统二维架构的效果局限。
三维架构不错依据谋略任务的需乞降数据特点,在两个维度上生动诊治数据流,最大化缩小传输旅途,质问搬运经过中的蔓延与能耗,从而进一步升迁全体谋略效果。
2. 依托算力网格时候构建生动数据流谋略范式。
传统固定组网存在推广性和语义适配瓶颈。而算力网格时候则不错通过生动组网,罢了Scale up与Scale out的协同。
把柄AI任务特点,系统能及时下发数据流的动态竖立信息,在多种互联拓扑结构间生动切换、精确诊治。最终质问互联蔓延,充分开释数据流架构的算力。
3. 通过前沿的晶圆级芯俄顷候,将数据流架构的上风阐发到极致。
这项时候将数据流架构从芯片规范推广到整片晶圆。
在整张晶圆上高密度集成多半谋略中枢,谋略中枢间的互联距离被极大缩小。带来的限制是,互联带宽罢了数目级升迁,通讯蔓延大幅质问。
数据流架构的算力规模与谋略效力由此被推到极致。这亦然为什么晶圆级芯片被视为数据流谋略架构的理念念物理载体。
以Cerebras为例。
数据娇傲,Cerebras CS 3系统推感性能比英伟达旗舰DGX B200快21倍,资本与功耗均质问三分之一,在算力、资本、能效上展现出显赫的概述上风。
在实测中,OpenAI的Codex-Spark跑出了每秒超1000 token的生成速率,让代码编写第一次有了及时交互的体验。

Cerebras CS-3 vs英伟达GPU:大模子推理速率对比

GPU独揽的时期,回不去了
谷歌TPU走出围墙,OpenAI拥抱晶圆级芯片,英伟达天价收编Groq。
这些信号均指向统一个标的:TPU已变成巨头们真金白银押注的主战场。
算力寰宇的单极时期,正在被多元架构闭幕。
决定下一代AI天花板的,不是算力堆砌的武备竞赛,而是能耗、蔓延、敬佩性共同组成的新谋划。
对国产芯片来说,这场变局既是机遇亦然挑战。 奴婢者只可分残羹,走出我方的底层创新之路,才有履历参与下一轮公共算力洗牌。

备案号: