租下22万颗英伟达GPU的同一天,Anthropic向谷歌TPU承诺了2000亿美元
发布时间:2026-05-07来源:钛媒体AGI
作者|硅谷Tech news
编辑|赵虹宇
本文首发于钛媒体APP几天前,硅谷传出消息:谷歌宣布,未来五年要提供给Anthropic的算力,规模高达5GW。紧接着,5月6日,这笔交易的价格被揭开——Anthropic承诺未来五年向谷歌云支付约2000亿美元,用于采购5GW的TPU算力和云服务。同一天,Anthropic还宣布租下SpaceX的Colossus1超级计算机,接入超过22万颗英伟达GPU用于推理。5GW在数据中心行业是什么概念?它大概相当于5座大型核电站满负荷运转的耗电量。这意味着谷歌几乎是为了Anthropic新建好几座超大规模数据中心,里面塞满几十万块谷歌自己设计的TPU芯片。而Anthropic为此付出的承诺采购额高达2000亿美元,占到了谷歌云积压订单的40%以上。更有意思的是这笔交易的结构:谷歌先向Anthropic投入100亿美元现金(按3500亿估值),若达成里程碑再追加至400亿;同时Anthropic承诺2000亿美元的云服务和TPU采购支出。投资是投资,采购是采购,但两者捆绑在一起,构成了极强的锁定效应——芯片被指定为谷歌自研的TPU。面对这样一份带有排他意味的超级大单,Anthropic也顺势调整了自己的算力版图:在训练侧大幅向谷歌TPU和亚马逊Trainium倾斜,同时仍保留英伟达GPU在推理等场景中的角色。5月6日租下SpaceX的22万颗GPU,就是Anthropic在GPU推理侧的最新动作。对于行业来说,或许,它标志着AI产业从“参数军备竞赛”正式转向“算力效率竞赛”的拐点,也标志着技术路线正在加速分化。这次切换,正在无声而有力地改变AI芯片的权力格局,重新定义了大模型和底层硬件之间的关系。
要理解Anthropic这次的算力布局为什么重要,得先看懂过去两年AI算力市场有多残酷。自从ChatGPT横空出世,大模型就变成了一个“烧钱无底洞”。行业里心照不宣的潜规则是:不管你融了多少钱,最后都得变成一张张采购英伟达H100或B200的订单。英伟达靠着CUDA生态的绝对垄断,不光拿走了行业里绝大部分利润,还捏着模型厂商的命脉——黄仁勋给你发多少货,你就能训练多大的模型。在这种格局下,大模型厂商的大部分利润最终流向了英伟达。但局中人也不是没有反抗的心思,尤其是那些手里有钱的云巨头:•谷歌心里很憋屈:TPU研发了十多年,一直在内部训练Gemini,性能其实不差,但缺少外部顶级大模型的“背书”,总被市场当成非主流。•亚马逊也很焦虑:作为全球最大的云厂商,AWS每年要给英伟达交天价保护费。它砸了大钱研发自研芯片Trainium,急需一个标杆客户来证明“不用英伟达也能跑顶级模型”。•Anthropic有点特殊:由DarioAmodei等前OpenAI核心成员独立创立,主打安全可控。它同时拿着谷歌、亚马逊和微软的钱——谷歌400亿美元投资、亚马逊累计330亿美元投资,加上2025年11月签下的300亿美元微软Azure算力合同,处在一个微妙的三角平衡中。面对高昂的算力成本,它比谁都渴望撕开一个口子,找找算力的“平替”。英伟达太贵、太慢、太强势;谷歌有芯片但缺生态,亚马逊有钱想要独立,Anthropic想活下去还要盈利。四方的诉求,在这一刻正好咬合在了一起。一场针对英伟达定价权的多边博弈已经展开。
Anthropic的选择,撕开了高昂算力成本的一角。它的本质,是用硬件的确定性,来换取模型迭代的绝对速度和成本护城河。谷歌分阶段向Anthropic兑现算力承诺,规模预计达到5GW级别的TPU集群(从2027年起逐步上线)。与此同时,谷歌对Anthropic的总投资额至多达400亿美元,Anthropic对谷歌云的采购承诺则高达2000亿美元。如此体量的算力集群,足以让Claude的训练效率大幅跃升,或者让Anthropic同时并行推进多个行业大模型的定制。这些承诺背后,是TPU在特定任务上对GPU的真实优势:•性价比领先:根据Google官方数据,在大型Transformer模型训练场景下,TPUv6e的性价比(性能/美元)约为同代英伟达GPU的3到4倍。•能效提升:Google数据中心PUE约为1.1,远低于行业平均1.58,综合运营成本优势明显。SemiAnalysis的研究报告也指出,Anthropic的推理基础设施毛利率已从38%提升至70%以上,定制芯片路线的降本效应可见一斑。从技术底层来看,Anthropic早就开始谋求“去单一硬件依赖”。2026年3月,Anthropic宣布已部署百万颗GoogleTPU,下一财年TPU算力将达1GW;在训练侧,TPU和亚马逊Trainium已成为核心算力来源;而在推理侧,英伟达GPU仍然扮演重要角色——5月6日租下SpaceXColossus1的超22万颗GPU就是最新例证。再加上用JAX框架对TPU集群做底层调优,Anthropic 已经形成了一个横跨谷歌 TPU、亚马逊 Trainium 和英伟达 GPU 的多元算力架构,训练侧以 TPU 和 Trainium 为核心,GPU 在推理等场景中持续扮演重要角色。可以理解为,这是训练到推理的全栈算力重构。Anthropic已经用行动证明:大模型厂商不再只是硬件厂商的“提款机”,而是可以成为算力架构的“设计师”。
Anthropic的转向,像一条鲶鱼,直接引爆了全球AI芯片四大阵营的正面对决。现在的算力江湖,已经不是英伟达一家独大了。Anthropic的转向,如同一条鲶鱼,直接引爆了全球AI芯片四大阵营的正面对决。如今的算力江湖,早已告别英伟达一家独大的格局。其一,谷歌–Anthropic:垂直闭环领跑者。“TPU–JAX–Claude”的全栈协同路线已成效显著。摩根士丹利预测,2027年TPU对外销售有望占据全球AI加速芯片市场20%的份额。更关键的是成本优势:Claude系列在同等性能段的API定价,相比部分头部竞品更具竞争力,谷歌通过硬件降本,直接为Anthropic打造了性价比壁垒。其二,OpenAI:算力堆砌猛,兼容性拖后腿。OpenAI正构建庞大的算力矩阵,已锁定30.5GW的长期算力合约。2025年10月,其与AMD签署多年期协议,部署总计6GW的AMD Instinct GPU算力(首期1GW MI450将于2026年下半年落地),与英伟达GPU并行组成大规模算力集群。但这种“大杂烩”架构代价高昂:多芯片、多厂商的组合导致算力利用率偏低,规模化红利被高额兼容性成本抵消。其三,英伟达:死守基本盘,高端腹地受侵蚀。作为行业老大哥,英伟达仍占据AI加速器市场80%以上的份额,CUDA生态仍是其不可撼动的护城河。但TPU在大模型核心训练场景的持续渗透,已让英伟达感受到压力。2025年7月,英伟达宣布CUDA全面支持RISC-V架构——这在以往难以想象,意味着其生态壁垒正被定制化需求从内部突破。其四,中国阵营:开源适配,换道超车。受外部环境影响,国产AI芯片市占率逆势提升。IDC数据显示,2025年中国AI加速卡市场总出货量约400万张,本土厂商合计出货约165万张,境内市场份额首次突破四成,达41%。例如2026年4月发布的DeepSeek-V4,已在官方技术报告中纳入华为昇腾NPU支持,华为昇腾、摩尔线程等国产厂商均完成Day0适配。中国厂商不拼单点极限算力,而是走“芯片+模型+场景”的快速落地路线。行业格局已发生根本性变化:AI竞争不再是比拼芯片采购量,而是“算力效率×场景适配”的综合较量。Anthropic精心设计的混合算力方案,恰恰指明了下一代AI基础设施的主流方向——分工明确、冗余可控、拒绝被单一厂商绑架。这套方案极具针对性:以 谷歌TPU和亚马逊Trainium打造了“双训练主力”,承担核心大模型的高强度训练任务;以英伟达GPU作为“万金油”,补位推理和多模态数据处理等场景。这套组合拳的成效立竿见影:供应链风险大幅降低,摆脱了对单一供应商的依赖;Anthropic 2025年6月公开的多智能体系统数据显示,以Claude Sonnet为主导智能体、多个Claude Haiku为子智能体的架构,相比单智能体Claude Opus,任务性能提升约90%;更重要的是,硬件级加密结合Anthropic的伦理框架,让金融、医疗等高敏感行业客户敢于放心合作。
当然,商业世界里没有免费的午餐。Anthropic这次向TPU深度倾斜,在换来极致训练效率和短期成本优势的同时,也给自己悄悄地戴上了一副“金手铐”——表面金光闪闪,实则勒得越来越紧。首先,以2000亿美元承诺为代表的TPU合作,正在将 Anthropic 的核心训练算力越来越多地系在谷歌身上。深度绑定谷歌TPU,意味着Anthropic未来的模型优化、算子开发,甚至推理框架选型,都将被TPU的硬件迭代节奏主导。谷歌TPU团队每推出一代新芯片,Anthropic就需重新适配,甚至重写部分底层代码。短期看这是“联合优化”,长期则会形成“单向依赖”。一旦谷歌调整TPU产品路线图,比如放弃某类指令集或硬件特性,Anthropic的适配成本和迁移风险将大幅上升。其次,多云协同易变“多云约束”。Anthropic目前同时依托谷歌云、AWS和微软Azure,看似灵活——TPU主力训练、Trainium备份训练、GPU负责推理,但实际操作中,跨云架构的维护成本远超预期。数据需在三朵云之间同步,任务调度要兼顾三套芯片差异,灾难恢复方案需单独适配,再加上三家云厂商各有诉求,未来难免在价格、带宽、优先级上相互掣肘。据知情人士透露,Anthropic内部早已感受到多云架构的运维复杂度,若未来谷歌与亚马逊关系出现微妙变化,Anthropic或将陷入两难境地。更隐蔽但更致命的,是技术独立性的慢性流失。Claude的每一次模型迭代,理论上应该是为了更好的智能和安全性。但未来,如果某个架构改动在TPU上跑得飞快、在GPU或Trainium上却表现平平,产品经理会怎么选?大概率会“为了上线”而优先适配TPU。久而久之,Claude的优化方向将越来越受TPU硬件特性的牵引,而不是一个跨平台、可移植的通用大模型。这就好比一个作家,本来可以用任何纸笔写作,后来被赞助商要求只能用某一种特制钢笔——写出来的东西也许更流畅,但那支钢笔的任何缺陷,都会直接写进他的作品里。拉长视野看,Anthropic的处境其实很微妙。对比一下:OpenAI走的是多供应商、多芯片的“大杂烩”路线。虽然效率低下、兼容成本高,但好处是——没有哪家芯片厂商能真正卡住它的脖子。微软、英伟达、AMD之间互相牵制,OpenAI反而拿到了议价空间。国产厂商如DeepSeek走的是开源适配路线。昇腾、寒武纪、海光……谁家芯片能在主流模型上跑出好效果,就用谁。生态是碎片化的,但也是自由的。而谷歌–Anthropic的闭环,在训练效率上无疑是最锋利的刀,但握住刀柄的那个人,是谷歌。Anthropic的核心训练算力、迭代速度、甚至一部分技术路线,都被锁在了谷歌的生态围墙之内。不过也要承认,Anthropic同时握有AWSTrainium、微软Azure和SpaceXGPU等多条后路,这副金手铐目前还没有完全焊死。更让人担心的是,这副金手铐还有一个时间轴上的陷阱。五年期的2000亿美元采购承诺,听起来是天堂,但合同到期后呢?到那时,Anthropic的整个技术栈、代码库、运维体系、人才习惯,都会深度绑定TPU。想要再换回GPU或迁移到其他芯片,成本高到几乎不可能。届时谷歌续签合同的条件,Anthropic还能说“不”吗?一位不具名的风投合伙人说得比较直白:“Anthropic不是在租谷歌的算力,而是在用未来数年的自主权,换今天的一张船票。”当然,不是说Anthropic做错了。在AI这个烧钱如烧纸的行业,首先要活下来,其次是跑得快。只是在商业世界里,没有完美架构,只有阶段性最优解。Anthropic目前拿到的是训练速度和成本的最优解,代价是——它把一部分未来的选择权,提前交了出去。
回看计算机这半个多世纪的历史,Anthropic的转向,其实是科技界一个经典的“宿命轮回”。三十年前,GPU作为专攻图形渲染的特定芯片,靠异构计算打破了通用CPU的垄断;三十年后,当GPU自己也变成了横在AI产业面前的“通用霸权”时,TPU、Trainium这些更专门化的ASIC芯片,正用同样的逻辑发起反攻。这意味着,AI底层基础设施的逻辑,正在从“暴力堆砌”转向“精耕细作”。大模型不再是可以在任意一张显卡上随便跑通的“上层软件”,它正在变成必须与特定硅片深度耦合的“重工业实体”。所以,Anthropic投向定制芯片,绝不意味着GPU会消亡,而是标志着“通用算力大一统”时代的终结。未来的版图注定走向分裂:英伟达GPU依然会长久统治通用计算和推理,但在超大规模模型训练的最核心地带,定制芯片将接管阵地。英伟达的护城河依然深不见底,但水面之下,暗流已经不可逆转。当“买卡就能做模型”的草莽时代结束,未来的竞争焦点,将从“对算力资源的粗暴囤积”,彻底升级为“对异构算力的精细调度权”和“对底层硅片架构的定义权”。在这场没有硝烟的底座重构中,谁掌握了定义硬件的权力,谁就拿到了下一轮竞争的关键筹码。
转载说明:本文系转载内容,版权归原作者及原出处所有。转载目的在于传递更多行业信息,文章观点仅代表原作者本人,与本平台立场无关。若涉及作品版权问题,请原作者或相关权利人及时与本平台联系,我们将在第一时间核实后移除相关内容。