为了满足日益增长的先进 AI 基础设施需求,总部位于硅谷的 GPU 云提供商GMI Cloud已筹集 8200 万美元的 A 轮融资。此轮融资由Headline Asia领投,并得到Banpu Next和纬创资通等知名合作伙伴的支持,使 GMI 的总资本超过 9300 万美元。这笔资金将使 GMI Cloud 在科罗拉多州开设新的数据中心,增强其服务北美的能力,并巩固其作为领先的 AI 原生云提供商的地位。
GMI Cloud 成立的初衷是让先进 AI 基础设施的普及成为可能,其使命是简化全球 AI 部署。该公司提供垂直整合平台,将顶级硬件与强大的软件解决方案相结合,确保企业能够高效轻松地构建、部署和扩展 AI。
高性能、支持 AI 的云平台
GMI Cloud 平台为 AI 项目提供了完整的生态系统,集成了先进的 GPU 基础架构、专有资源编排系统以及用于管理和部署模型的工具。这一全面的解决方案消除了许多传统基础架构挑战:
- GPU 实例:通过快速访问 NVIDIA GPU,GMI 允许用户即时部署 GPU 资源。选项包括按需或私有云实例,可容纳从小型项目到企业级 ML 工作负载的一切。
- 集群引擎:这款专有软件由 Kubernetes 提供支持,可实现 GPU 资源的无缝管理和优化。它提供多集群功能,可实现灵活扩展,确保项目能够适应不断变化的 AI 需求。
- 应用平台:该平台专为AI开发而设计,提供与API、SDK和Jupyter笔记本集成的可定制环境,为模型训练、推理和定制提供高性能支持。
利用科罗拉多数据中心扩大全球影响力
GMI Cloud 的科罗拉多数据中心是其扩张的关键一步,提供低延迟、高可用性的基础设施,以满足北美客户日益增长的需求。这个新枢纽是对 GMI 现有的全球数据中心的补充,这些数据中心已在台湾和其他关键地区建立了强大的业务,可实现跨市场的快速部署。
利用 NVIDIA 技术助力 AI
GMI Cloud 是NVIDIA 合作伙伴网络的成员,集成了 NVIDIA 的尖端 GPU,包括NVIDIA H100。此次合作确保客户能够获得强大的计算能力,以处理复杂的 AI 和 ML 工作负载,最大限度地提高高需求应用程序的性能和安全性。
NVIDIA H100 Tensor Core GPU 基于 NVIDIA Hopper 架构构建,可为各种工作负载提供顶级性能、可扩展性和安全性。它针对 AI 应用程序进行了优化,可将大型语言模型 (LLM) 的速度提高多达 30 倍。此外,H100 还配备了专用的 Transformer Engine,专门用于处理万亿参数模型,使其成为对话式 AI 和其他密集型机器学习任务的理想选择。
构建通用人工智能的未来
着眼于未来,GMI Cloud正在将自己打造成通用人工智能 (AGI) 的基础平台。通过提供对先进 GPU 和无缝编排工具的早期访问,GMI Cloud 使各种规模的企业能够快速部署可扩展的 AI 解决方案。这种对可访问性和创新的关注是 GMI 支持快速发展的 AI 格局的使命的核心,确保全球企业能够有效地采用和扩展 AI 技术。
GMI Cloud 拥有一支在人工智能、机器学习和云基础设施方面拥有深厚专业知识的团队,为希望利用人工智能实现转型增长的公司开辟了一条便捷的途径。凭借其强大的基础设施、战略合作伙伴关系以及推动人工智能创新的承诺,GMI Cloud有能力在全球范围内塑造人工智能基础设施的未来。
原创文章,作者:点点,如若转载,请注明出处:https://www.dian8dian.com/gmi-cloud-huo-8200-wan-mei-yuan-a-lun-rong-zi-yi-xian-jin