在今天的Ignite开发者大会上,微软发布了两款专为其数据中心基础设施设计的新芯片:Azure Integrated HSM和Azure Boost DPU。
这些定制设计的芯片计划在未来几个月内发布,旨在解决现有数据中心面临的安全性和效率差距,进一步优化其服务器以应对大规模 AI 工作负载。 微软此前已发布Maia AI 加速器和 Cobalt CPU,这是该公司全面战略的又一大步,该战略旨在重新思考和优化其堆栈的每一层(从硅片到软件),以支持先进的 AI。
由萨蒂亚·纳德拉 (Satya Nadella) 领导的公司还详细介绍了旨在管理数据中心电力使用和热量排放的新方法,因为许多人继续对运行人工智能的数据中心对环境的影响发出警告。
就在最近,高盛发布研究估计,到 2030 年,先进的人工智能工作负载将推动数据中心电力需求增长 160%,到本世纪末这些设施将消耗全球 3-4% 的电力。
新芯片
在继续使用Nvidia和 AMD 等公司提供的业界领先硬件的同时,微软也一直在通过其定制芯片不断突破标准。
去年在 Ignite 大会上,该公司凭借针对人工智能任务和生成式人工智能进行了优化的Azure Maia AI 加速器,以及基于 Arm 的处理器 Azure Cobalt CPU 登上了头条新闻,这是一款专门用于在 Microsoft Cloud 上运行通用计算工作负载的处理器。
现在,作为这一旅程的下一步,它扩展了其定制硅片产品组合,特别注重安全性和效率。
新的内部安全芯片 Azure Integrated HSM 配备专用的硬件安全模块,设计符合FIPS 140-3 3 级安全标准。
Azure 基础设施营销副总裁 Omar Khan 表示,该模块本质上强化了密钥管理,以确保加密和签名密钥在芯片范围内保持安全,同时不会影响性能或增加延迟。
为了实现这一点,Azure Integrated HSM 利用专用硬件加密加速器,直接在芯片的物理隔离环境中实现安全、高性能的加密操作。与需要网络往返或密钥提取的传统 HSM 体系结构不同,该芯片完全在其专用硬件边界内执行加密、解密、签名和验证操作。
集成 HSM 为增强数据保护铺平了道路,而 Azure Boost DPU(数据处理单元)则针对数百万个网络连接对应的高度多路复用数据流优化了数据中心,并注重电源效率。
该产品是微软同类产品中的首款产品,它将传统服务器的多个组件整合到一块硅片中,对 CPU 和 GPU 进行了补充,包括高速以太网和 PCIe 接口、网络和存储引擎、数据加速器和安全功能。
它采用复杂的硬件-软件协同设计,其中定制的轻量级数据流操作系统与传统实现相比能够实现更高的性能、更低的功耗和更高的效率。
微软预计,与现有的基于 CPU 的服务器相比,该芯片将以低三倍的功耗和四倍的性能轻松运行云存储工作负载。
冷却和电源优化的新方法
除了新芯片外,微软还分享了在改善数据中心冷却和优化其电力消耗方面取得的进展。
在冷却方面,该公司宣布了其热交换器单元的高级版本——液体冷却“sidekick”机架。该公司没有透露该技术承诺的具体收益,但指出它可以改装到 Azure 数据中心,以管理使用 AI 加速器和 Nvidia 等耗电 GPU 的大型 AI 系统的热量排放。
在能源管理方面,该公司表示已与 Meta 合作开发新型分解式电源架,旨在提高灵活性和可扩展性。
Khan 在博客中写道:“每个分解式电源架将配备 400 伏直流电源,使每个服务器机架中的 AI 加速器数量最多可增加 35%,从而实现动态功率调整,以满足不同 AI 工作负载的需求。”
微软正在通过开放计算项目为业界开源冷却和电源机架规格。至于新芯片,该公司表示计划从明年开始在每个新的数据中心服务器中安装 Azure Integrated HSM。不过,DPU 推出的时间表目前仍不清楚。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/wei-ruan-tui-chu-ding-zhi-xin-pian-yi-ti-gao-shu-ju-zhong