1850亿美元天价支出、75%代码由AI生成!谷歌正式宣告:全面转向智能体工作流

今天,谷歌正在对 AI 押下其史上规模最大的赌注之一。
在美国拉斯维加斯刚刚举办的 Google Cloud Next 大会上,谷歌云正式宣告 “智能体时代”来临。谷歌 CEO Sundar Pichai 宣布,公司今年计划投入 1750 亿至 1850 亿美元用于资本支出,远高于 2022 年的 310 亿美元,以搭建他口中 AI“智能体时代”所需的基础设施。
“随着我们步入智能体时代,我们正将相关布局推向新高度,我们正在为当下与未来进行大规模投资。”Pichai 表示。这场年度大会上,这家巨头展示了其在云计算、AI、安全与数据分析领域的最新创新成果,并发布一整套软硬件产品,核心亮点包括一个用于构建自主 AI 智能体的全新综合性平台以及谷歌第八代张量处理器(TPU)。
“我们在谷歌内部已经使用 AI 生成代码有一段时间了。如今,谷歌近 75% 的新增代码由 AI 生成并由人类工程师审核通过。”据 Pichai 称,谷歌内部应用 AI 的比例近年来不断攀升。截至 2024 年 10 月,公司约四分之一的代码由 AI 生成。到去年秋季,这一比例已升至 50%。
据悉,谷歌工程师正使用 Gemini 模型生成代码,部分员工还被设定了具体的 AI 使用目标,这些目标将纳入今年的绩效考核。据外媒此前报道,近几个月来,部分 Google DeepMind 员工已被允许使用 Anthropic 的 Claude Code,这在员工内部引发了一些矛盾。
并且,Pichai 在昨日的一篇博客文章中表示,谷歌正全面转向真正的智能体工作流,让工程师执行更多自主化任务。Pichai 称,“近期,一项由智能体与工程师协作完成的高复杂度代码迁移任务,完成速度比一年前仅由工程师人工操作快了六倍。”
Gemini Enterprise 是被提及的重要角色,这是一套面向智能体时代的端到端系统,专为能够执行复杂多步骤工作流程的智能体打造。Pichai 强调,谷歌正将自身的工程部门当作实验室,充当 Gemini Enterprise 智能体平台的“首个试用客户”。“要成为最优秀的合作伙伴,我们始终希望成为自身技术的首个试用客户,”Pichai 表示。其目标是在谷歌级规模下对这些 AI 智能体进行实战检验,之后再将同款基础设施提供给全球云服务客户。
据 Pichai 介绍,该产品的付费月活跃用户数环比增长达 40%。Pichai 表示,“借助这一迅猛增长,我们看到,每家企业里的每一位员工都能成为创造者。这是一场意义非凡的转变,但也伴随着复杂性。有一点非常明确:我们已然坚定地迈入 Gemini 智能体时代。行业讨论的焦点已经从‘我们能否打造一个智能体?’转向了‘我们该如何管理成千上万个智能体?’”
为此,谷歌在大会上推出了面向开发者的 Gemini Enterprise Agent Platform,旨在为数据、人员与业务目标之间搭建安全、全栈式的 “连接纽带”,从而实现对智能体的优化调度。据介绍,Agent Platform 从 Vertex AI 开发者平台升级扩展而来,“整合了客户喜爱的 Vertex AI 模型选择、模型构建和调优服务,以及代理集成、安全、DevOps、编排等新功能”。该平台对现有 Gemini Enterprise 体验进行了全面升级,并提供超过 200 种模型,其中包括 Gemini 3.1 Pro、Nano Banana 2、Gemma 开源模型以及来自 Anthropic 的竞品模型,例如其刚刚发布的 Opus 4.7。
谷歌也正在自身生态体系内部构建这一“连接纽带”。运行在 macOS 上的 Gemini 应用,正是通过谷歌自研的 Antigravity 平台开发而成,这是谷歌内部一款 “以智能体为核心” 的开发平台,自主 AI 智能体可在浏览器中完成规划、编写代码与应用测试,仅需极少的人工干预。
“今年,我们将见证 AI 技术迈向新一轮发展阶段。”谷歌云 CEO Thomas Kurian 表示,“早期的 AI 模型主要侧重于回答用户问题、辅助完成创意类工作。而随着模型不断发展,现在人们希望把任务乃至一系列工作流程交给智能体去执行。这些智能体进而能够自主操作计算机,把整个谷歌云平台和 Workspace 当作工具来使用。”
不过,尽管大力推进智能体 AI,Pichai 强调,尽管 AI 参与比例很高,人类工程师仍然是最终的守门人,“代码的每一行都经过工程师审核和批准”。他表示,谷歌还将 AI 用于网络安全运营的部分自动化工作,帮助团队更快处理海量威胁情报、更迅速应对风险。 “每月,我们的团队会收到海量非结构化威胁报告,若人工审阅需耗费数千小时,几乎是不可能完成的任务,如今,我们安全运营中心的智能体每月自动对数万份非结构化威胁报告进行分类,快速提取关键情报并过滤无效信息,将威胁处置时间缩短了 90% 以上;我们的安全防御比以往任何时候都更具主动性。”
值得注意的是,谷歌绝非唯一一家在代码编写上更多依赖 AI 的科技巨头。去年 4 月,微软 CEO Satya Nadella 表示,公司部分项目中 20% 至 30% 的代码由 AI 编写。同月,其 CTO Kevin Scott 称,他认为五年内 95% 的代码都将由 AI 生成。Meta 也在大力朝这一方向推进。截至 2025 年第四季度,该公司已设定目标:部分部门软件工程师的代码变更中,55% 需为智能体辅助完成。文件称,2026 年上半年,其创意部门预计有 65% 的工程师所提交的代码中,超过 75% 由 AI 编写。本月早些时候,Snap 表示,按照其新运营模式,至少 65% 的新代码由 AI 生成。
这场“智能体 AI 革命” 的核心,是谷歌全新的 AI 超级计算机基础设施。大多数全力投入 AI 模型研发的公司,都在疯狂抢购英伟达的 AI 加速芯片,但谷歌选择了一条截然不同的道路,其云端 AI 基础设施大部分基于自研的张量处理器(TPU)系列。
谷歌提出,“智能体时代” 与以往的 AI 系统有着本质区别,因此需要全新的硬件设计思路。继 2025 年发布第七代 Ironwood TPU 后,谷歌在此次大会上推出两款专用第八代芯片,以满足自主智能体的海量算力需求。其中,TPU 8t(训练型)专为高速模型训练设计,可在单个超算集群中扩展至 9600 块 TPU;TPU 8i(推理型)专为 “近零延迟” 设计,确保 AI 智能体能够即时响应并执行任务。
在 AI 模型能够用于数据分析或生成趣味内容之前,必须先经过训练。TPU 8t 正是专为 AI 生命周期中的这一环节设计,旨在将前沿 AI 模型的训练周期从数月缩短至数周。谷歌将更新后的 Tensor 8t 服务器集群称为 “超算集群(pods)”,单个集群可搭载 9600 颗芯片,并配备 2PB 共享高带宽内存。谷歌称,TPU 8t 甚至支持线性扩展,单个逻辑集群可扩展至百万颗芯片。正是这类创新让超大规模 AI 模型的训练速度大幅提升,同时也推高了市场上的内存价格。
但对于参与构建巨型 AI 模型的机构而言,这套硬件能显著节省时间,单个集群算力达到 121 FP4 EFlops,几乎是上一代 Ironwood 训练算力上限的三倍。因此,新款芯片不仅训练速度更快,谷歌还表示 TPU 8t 的每瓦有效算力更高。该公司称其有效算力利用率达 97%,意味着更少的等待与算力浪费。凭借对非连续内存访问的优化、硬件故障自动处理,以及所有互联芯片的实时遥测监控,TPU 8t 能将更多时间用于高效推进模型训练。
训练完成后,AI 模型会以推理模式运行并生成 token,这是向模型下达指令时后台执行的过程。该环节无需同等算力,因此在 AI 生命周期的两个阶段使用同款硬件效率极低。这也是推理任务由 TPU 8i 负责的原因,它专为高效运行多个专业化智能体设计,延迟更低。相比上一代 Ironwood 推理集群仅 256 颗芯片的规模,TPU 8i 集群规模扩大至 1152 颗。单个集群算力为 11.6 EFlops,远低于 TPU 8t 集群。
谷歌将每颗 TPU 8i 的片上 SRAM 容量提升三倍,达到 384MB。这使得新款芯片可在片上存储更大的键值缓存,加快长上下文窗口模型的运行速度。第八代 AI 加速芯片也是谷歌首款完全采用自研 Axion ARM 架构 CPU 主控的产品,每两颗 TPU 搭配一颗 CPU。而在 Ironwood 时代,每颗 x86 CPU 需为四颗 TPU 提供服务。谷歌表示,这种基于 ARM 的 “全栈式” 方案能实现更高的运行效率。
据介绍,这两款芯片都将在今年晚些时候正式上市。未来,TPU 8t 与 TPU 8i 将支撑谷歌基于 Gemini 的智能体运行,同时也面向第三方开发者设计。两款全新 TPU 均兼容开发者现有使用的框架,包括 JAX、MaxText、PyTorch、SGLang 与 vLLM。同时,谷歌也宣布,将成为首批提供英伟达 Vera Rubin NVL72 系统的厂商之一,让客户可根据自身需求灵活选择最优架构。
在此次大会上,谷歌还展示了如何将巨额的 AI 支出转化为收入。这家科技巨头宣布设立 7.5 亿美元基金,助力其拥有 12 万名成员的谷歌云合作伙伴生态体系开发并落地智能体 AI 产品。该计划将提供工程支持、Gemini 模型抢先体验权限,以及面向埃森哲、德勤、麦肯锡等企业的激励政策。
展示 AI 投入变现路径的同时,花旗、前 OpenAI 高管 Mira Murati 创立的 Thinking Machines Lab 等企业也披露了如何借助谷歌的基础设施与 AI 工具推出新产品、训练前沿模型。花旗发布了“Citi Sky”,一款面向美国客户的 AI 驱动财富管理助手。与此同时,Thinking Machines Lab 宣布扩大对谷歌云 AI 超级计算机的使用,以加快 AI 研究与模型训练速度。
据一位知情人士透露,Thinking Machines Lab 已签署一份数十亿美元的新协议,扩大使用谷歌云的 AI 基础设施,合作内容涵盖使用基于英伟达全新 GB300 芯片搭建的谷歌最新 AI 系统,以及用于支持模型训练与部署的基础设施服务。据介绍,Thinking Machines 是首批使用其搭载 GB300 芯片系统的谷歌云客户之一,该系统在模型训练与推理服务速度上相较上一代 GPU 提升一倍。
今年早些时候,Thinking Machines 曾与英伟达达成合作,其中包括来自这家芯片厂商的投资。而本次是该实验室首次与云服务提供商签约。这笔合作并非独家协议,因此 Thinking Machines 未来可能会同时使用多家云厂商的服务,但这一动作依然表明,谷歌正试图提前锁定高速成长的前沿 AI 实验室。此前,Thinking Machines 推出了首款产品,这款名为 Tinker 的工具,可自动化创建定制化前沿 AI 模型。
谷歌在新闻稿中提到,其基础设施可支撑这家初创公司的强化学习算力负载,而 Tinker 的架构正是基于强化学习技术。强化学习这一训练方式,是 DeepMind、OpenAI 等实验室近年取得技术突破的核心支撑,而谷歌云这笔合作的规模,也反映出相关研究对算力的消耗极为巨大。
此外,谷歌一直在积极与 AI 开发者达成多项云服务合作,希望将自身 AI 算力服务与存储、Kubernetes 引擎、数据库产品 Spanner 等其他云服务打包整合。本月早些时候,Anthropic 与谷歌及博通签署协议,锁定数吉瓦的张量处理器(TPU)算力。但行业竞争十分激烈。就在本周,Anthropic 还与亚马逊签署新协议,获取最高 5 吉瓦的算力用于 Claude 模型的训练与部署。
一位 DA Davidson 分析师曾估计,谷歌的 TPU 业务加上 Google DeepMind AI 团队,将达到约 9000 亿美元的价值。
参考链接:
https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/cloud-next-2026-sundar-pichai/
https://www.businessinsider.com/google-ai-generated-code-75-gemini-agents-software-2026-4
https://techcrunch.com/2026/04/22/exclusive-google-deepens-thinking-machines-lab-ties-with-new-multi-billion-dollar-deal/
声明:本文为 AI 前线整理,不代表平台观点,未经许可禁止转载。

世界模型的下一个突破在哪?Agent 从 Demo 到工程化还差什么?安全与可信这道坎怎么过?研发体系不重构,还能撑多久?
AICon 上海站 2026,4 大核心专题等你来:世界模型与多模态智能突破、Agent 架构与工程化实践、Agent 安全与可信治理、企业级研发体系重构。14 个专题全面开放征稿。
诚挚邀请你登台分享实战经验。AICon 2026,期待与你同行。

今日荐文
xAI落后太多,马斯克“开大”重金求购Cursor,100亿美金“分手费”都敢签!
Claude封号潮失控!300 万用户企业一夜断供,无理由、无回应,受害者被迫抱团反抗
靠“AI 云”爆红的 Vercel,栽在一个第三方AI工具手里!IPO前夕遭黑,200万美元赎金谈崩?
Meta“Token榜”逼疯打工人,一夜烧掉公司几万刀!AI时代Token焦虑越来越离谱

