‌Google发布新一代Ironwood芯片:性能超世界最快超级计算机24倍‌

‌Google发布新一代Ironwood芯片:性能超世界最快超级计算机24倍‌

Google Cloud于近日正式推出了其第七代张量处理单元(Tensor Processing Unit,简称TPU)——Ironwood。这款专为人工智能(AI)推理工作负载设计的定制AI加速器,据Google声称,在大规模部署时,能提供超过当前世界最快超级计算机24倍的计算能力。Ironwood的发布标志着Google在长达十年的AI芯片开发战略上的一次重大转变。

在Google Cloud Next ’25大会上宣布的这一新芯片,无疑为Google的AI芯片发展之路树立了新的里程碑。以往各代的TPU主要针对训练和推理工作负载进行了双重设计,而Ironwood则是首个专为推理而生的芯片——即部署经过训练的AI模型以进行预测或生成响应的过程。

“Ironwood旨在支持AI生成的下一阶段及其巨大的计算和通信需求,”Google机器学习、系统和云AI部门的副总裁兼总经理Amin Vahdat在活动前的虚拟新闻发布会上表示,“我们称之为‘推理时代’,在这个时代,AI智能体将主动检索和生成数据,以协同提供见解和答案,而不仅仅是数据。”

Ironwood:打破计算壁垒

Ironwood的技术规格令人瞩目。当每个pod部署9,216个芯片时,它能提供42.5百亿亿次浮点运算(exaflops)的计算能力,远远超过了目前世界最快的超级计算机El Capitan的1.7百亿亿次浮点运算能力。每个Ironwood芯片都能达到4,614万亿次浮点运算的峰值计算能力。

此外,Ironwood在内存和带宽方面也实现了显著提升。每个芯片配备了192GB的高带宽内存(HBM),是Google去年宣布的前代TPU——Trillium的六倍。其内存带宽也达到了每芯片7.2太比特每秒(terabits per second),相比Trillium提升了4.5倍。

在电力受限的数据中心时代,Ironwood的性能功耗比也达到了新的高度。与Trillium相比,Ironwood的每瓦性能提升了两倍,而相比Google 2018年推出的首款云TPU,其能效更是提高了近30倍。“在当前电力供应成为提供AI能力约束之一的背景下,我们为客户工作负载提供了每瓦显著更多的容量,”Vahdat解释道。

从模型构建到“思考机器”

从训练转向推理的重点转移,标志着AI发展时间线上的一个重要转折点。多年来,业界一直专注于构建越来越大的基础模型,公司间主要在参数数量和训练能力上展开竞争。Google对推理优化的重视表明,我们正在进入一个以部署效率和推理能力为中心的新阶段。这一转变是合理的,因为训练只需进行一次,而推理操作在用户与AI系统交互时会每日发生数十亿次。

随着模型变得越来越复杂和计算密集,AI的经济性日益与推理成本挂钩。在新闻发布会上,Vahdat透露,Google观察到过去八年来,对AI计算的需求每年增长了10倍——总体增长了惊人的1亿倍。没有像Ironwood这样的专业架构,摩尔定律的进步也无法满足这一增长曲线。

特别值得注意的是,Google正专注于能够执行复杂推理任务的“思考模型”,而不仅仅是简单的模式识别。这表明,Google认为AI的未来不仅在于更大的模型,更在于能够分解问题、通过多个步骤进行推理并模拟人类思维过程的模型。

Gemini的思考引擎:Google下一代模型利用先进硬件

Google将Ironwood定位为其最先进AI模型的基础,包括具有“原生内置思考能力”的Gemini 2.5。在大会上,Google还宣布了Gemini 2.5 Flash,一个基于提示复杂性调整推理深度的更具成本效益的版本。Gemini 2.5 Pro旨在为药物发现和金融建模等复杂用例而设计,而Gemini 2.5 Flash则针对响应时间至关重要的日常应用。

此外,Google还展示了其完整的生成式媒体模型套件,包括文本到图像、文本到视频,以及新宣布的文本到音乐功能Lyria。一项演示展示了这些工具如何协同工作,以创建完整的音乐会宣传视频。

超越硅芯片:Google的全面基础设施战略涵盖网络和软件

Ironwood只是Google更广泛的AI基础设施战略的一部分。该公司还宣布了Cloud WAN,这是一种托管广域网服务,可为企业提供访问Google全球级私有网络基础设施的能力。“Cloud WAN是一个完全托管、可行且安全的企业网络主干,可提供高达40%的网络性能提升,同时降低同等比例的总拥有成本,”Vahdat说。

Google还在扩展其针对AI工作负载的软件产品,包括Pathways,这是由Google DeepMind开发的机器学习运行时。Pathways on Google Cloud允许客户在数百个TPU上扩展模型服务。

AI经济学:Google 120亿美元的云业务计划赢得效率之战

这些硬件和软件公告对Google Cloud而言至关重要,该公司在最新的收益报告中公布了2024年第四季度120亿美元的营收,同比增长30%。在云计算领域的战争中,AI部署的经济性正日益成为一个区分因素。

Google面临着来自Microsoft Azure和Amazon Web Services的激烈竞争。Azure通过与OpenAI的合作伙伴关系获得了强大的市场地位,而AWS则继续扩展其Trainium和Inferentia芯片产品。

Google方法的不同之处在于其垂直整合。竞争对手要么与芯片制造商合作,要么收购初创企业,而Google则十多年来一直在内部开发TPU。这赋予了Google对其AI堆栈从硅芯片到软件再到服务的无与伦比的控制。

通过将这项技术带给企业客户,Google押注其在搜索、Gmail和YouTube方面构建芯片的经验将转化为在企业市场上的竞争优势。其战略很明确:向任何愿意付费的人提供支持Google自身AI的基础设施,而且规模庞大。

多智能体生态系统:Google打造协同工作的AI系统大胆计划

除了硬件之外,Google还概述了一个以多智能体系统为中心的AI愿景。该公司宣布了Agent Development Kit(ADK),允许开发者构建多个AI智能体可以协同工作的系统。最重要的是,Google宣布了一个“智能体间互操作性协议”(A2A),使由不同框架和不同供应商构建的AI智能体能够相互通信。

“2025年将是过渡的一年,在这一年,生成式AI将从回答单个问题转变为通过智能体系统解决复杂问题,”Vahdat预测道。Google正在与包括Salesforce、ServiceNow和SAP在内的50多个行业领导者合作,以推进这一互操作性标准。

企业现实检验:Ironwood的功耗和效率对您的AI战略意味着什么

对于企业部署AI而言,这些公告可能会显著降低运行复杂AI模型的成本和复杂性。Ironwood的能效提升可能使运行高级推理模型更具经济性,而智能体互操作性协议可能有助于企业避免供应商锁定。

这些进步的实际影响不容忽视。许多组织一直因高昂的基础设施成本和能源消耗而不愿部署先进的AI模型。如果Google能够兑现其每瓦性能承诺,我们可能会看到在迄今为止仍处于观望状态的行业中出现新一轮AI采用浪潮。

多智能体方法对于被跨系统和供应商部署AI的复杂性所困扰的企业来说同样重要。通过标准化AI系统的通信方式,Google正试图打破限制AI在企业中发挥作用的壁垒。在新闻发布会上,Google强调,Next ’25上将分享超过400个客户故事,展示其AI创新的真实业务影响。

硅芯片军备竞赛:Google的定制芯片和开放标准将重塑AI的未来吗?

随着AI的发展,其基础设施将变得越来越关键。Google在Ironwood等专用硬件和智能体互操作性计划上的投资表明,该公司正在为AI变得更加分布式、更复杂和更深入融入业务运营的未来做准备。

“像Gemini 2.5和获得诺贝尔奖的AlphaFold这样的领先思考模型今天都运行在TPU上,”Vahdat指出,“有了Ironwood,我们迫不及待地想看到我们的开发人员和Google Cloud客户在它推出后能实现哪些AI突破。”

这些战略影响的范围超出了Google自身的业务。在推动智能体通信的开放标准的同时,Google在硬件方面保持专有优势,正试图在保持竞争优势的同时促进更广泛的生态系统繁荣(以Google基础设施为基础)。

在未来几个月里,关键因素将包括竞争对手对Google硬件进步的响应速度,以及行业是否会围绕提议的智能体互操作性标准联合起来。如果历史有迹可循,我们可以预计Microsoft和Amazon将推出自己的推理优化策略,可能会形成一场三方竞赛,以构建最高效的AI基础设施堆栈。

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/google-fa-bu-xin-yi-dai-ironwood-xin-pian-xing-neng-chao

Like (0)
王 浩然的头像王 浩然作者
Previous 5天前
Next 4天前

相关推荐

发表回复

Please Login to Comment