
Cerebras大幅扩展数据中心版图,携手两大企业巨头引领AI推理服务新风尚
在人工智能(AI)市场持续蓬勃发展的背景下,Cerebras Systems,这一AI硬件领域的新兴势力,正以前所未有的速度挑战NVIDIA的霸主地位。近日,Cerebras宣布了一项重大举措:将在北美和欧洲增设六大AI数据中心,此举将使其推理能力提升至每秒超过4000万令牌,实现了20倍的增长。这一战略部署不仅彰显了Cerebras对高速AI推理市场前景的坚定信心,也预示着AI行业将迎来一场深刻变革。
六大数据中心布局全球,美国市场占据核心地位
Cerebras此次扩建的数据中心分别位于达拉斯、明尼阿波利斯、俄克拉荷马城、蒙特利尔、纽约以及法国,其中85%的推理能力将集中在美国。这一布局不仅强化了Cerebras在全球范围内的服务网络,更凸显了其对美国国内AI基础设施建设的重视。随着技术的不断进步和应用的日益广泛,AI推理能力已成为衡量企业竞争力的关键指标之一。Cerebras通过大幅提升推理速度,正致力于满足市场对更快速、更高效AI解决方案的迫切需求。
携手Hugging Face与AlphaSense,共筑AI生态新蓝图
在宣布数据中心扩建的同时,Cerebras还宣布了两项重要合作伙伴关系,分别与AI开发者平台Hugging Face和市场情报平台AlphaSense携手。通过与Hugging Face的合作,Cerebras将能够触及其庞大的开发者社区,使超过500万的开发者能够一键接入Cerebras推理服务,无需单独注册。这一集成将极大促进开源AI模型的应用与普及,特别是对于那些依赖LLama 3.3 70B等模型的开发者而言。
而与AlphaSense的合作则标志着Cerebras在金融领域的又一重大突破。AlphaSense作为广受金融服务业欢迎的市场情报平台,已选择Cerebras作为其AI加速解决方案提供商。这一转变不仅将显著提升AlphaSense的AI搜索能力,还将为其服务的众多财富100强企业带来前所未有的速度优势。据Cerebras产品营销总监James Wang介绍,Cerebras的系统已将AlphaSense的搜索速度提高了10倍,使得原本需要数秒甚至更长时间的查询现在几乎可以瞬间完成。
专注高速推理,引领AI硬件新潮流
Cerebras自成立以来便专注于高速AI推理领域,其独有的Wafer-Scale Engine(WSE-3)处理器被誉为AI推理领域的“速度之王”。据Wang介绍,Cerebras的处理器在运行AI模型时速度可比传统GPU解决方案快10至70倍。这一速度优势在AI模型向更复杂推理能力演进的背景下显得尤为重要。随着推理模型变得越来越复杂,传统GPU在处理这些任务时显得力不从心,而Cerebras的专用硬件则能够轻松应对这一挑战。
成本效益显著,挑战GPT-4等领先模型
除了速度优势外,Cerebras在成本效益方面同样表现出色。Wang指出,经过Cerebras优化的开源模型LLama 3.3 70B在智力测试中的表现与OpenAI的GPT-4不相上下,但运行成本却大幅降低。他解释说:“使用GPT-4的成本大约为每1000个令牌4.4美元,而LLama 3.3 70B的成本仅为60美分左右。如果你选择Cerebras,你的成本将降低近一个数量级,同时速度还将提高另一个数量级。”这一成本效益比无疑将对那些正在寻找更经济、更高效AI解决方案的企业产生巨大吸引力。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/cerebras-xuan-bu-liu-da-ai-shu-ju-zhong-xin-mei-miao-chu-li