
Cerebras Systems今天宣布,它将在美国服务器上托管 DeepSeek 的突破性 R1 人工智能模型,承诺速度比基于 GPU 的解决方案快 57 倍,同时将敏感数据保留在美国境内。此举正值人们对中国快速发展的人工智能和数据隐私的担忧日益加剧之际。
这家人工智能芯片初创公司将在其专有的晶圆级硬件上部署一个拥有 700 亿个参数的DeepSeek-R1版本,每秒可输出 1,600 个令牌,这比在处理较新的“推理”人工智能模型时遇到困难的传统 GPU 实现有了显著的改进。

DeepSeek 的推理模型为何会重塑企业 AI
“这些推理模型影响着经济,”Cerebras 高管 James Wang 在独家采访时表示。“任何知识工作者基本上都必须完成某种多步骤的认知任务。这些推理模型将成为他们工作流程中的工具。”
此前的一周,DeepSeek 的出现引发了 Nvidia史上最大的市值损失,接近 6000 亿美元,引发了人们对这家芯片巨头的 AI 霸主地位的质疑。Cerebras 的解决方案直接解决了出现的两个关键问题:高级 AI 模型的计算需求和数据主权。
“如果你使用目前非常流行的DeepSeek API ,这些数据就会直接发送到中国,”王解释说。“这是一个严重的警告,[让]许多美国公司和企业……不愿意考虑[它]。”

Cerebras 的晶圆级技术如何在 AI 速度上击败传统 GPU
Cerebras 通过一种新颖的芯片架构实现了其速度优势,该架构将整个 AI 模型放在单个晶圆大小的处理器上,从而消除了困扰基于 GPU 的系统的内存瓶颈。该公司声称其实施的 DeepSeek-R1 达到或超过了 OpenAI 专有模型的性能,同时完全在美国本土运行。
这一进展代表了人工智能领域的重大转变。DeepSeek由前对冲基金高管梁文锋创立,该公司以仅相当于美国竞争对手 1% 的成本实现了复杂的人工智能推理能力,震惊了整个行业。Cerebras 的托管解决方案现在为美国公司提供了一种利用这些进步同时保持数据控制的方法。
“美国研究实验室向世界赠送这项礼物,这其实是一个美好的故事。中国人拿来并改进了它,但它有局限性,因为它在中国运行,存在一些审查问题,现在我们把它拿回来,在美国数据中心运行,没有审查,没有数据保留,”王说。

人工智能创新走向全球,美国科技领导地位面临新问题
该服务将从今天开始通过开发者预览版提供。虽然最初是免费的,但由于早期需求旺盛,Cerebras 计划实施API 访问控制。
此举正值美国立法者努力应对 DeepSeek 崛起的影响之际,这暴露了美国为保持对中国的技术优势而制定的贸易限制的潜在局限性。尽管存在芯片出口管制,但中国公司仍能实现突破性的人工智能能力,这引发了对新监管方法的呼吁。
行业分析师认为,这一发展可能会加速人工智能基础设施从依赖 GPU 的转变。“英伟达不再是推理性能的领导者,”王先生指出,基准测试显示各种专用人工智能芯片的性能更优越。“这些其他人工智能芯片公司在运行这些最新模型时确实比 GPU 更快。”
影响不仅限于技术指标。随着人工智能模型越来越多地融入复杂的推理能力,其计算需求也急剧上升。Cerebras 认为其架构更适合这些新兴工作负载,可能会重塑企业人工智能部署的竞争格局。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/cerebras-cheng-wei-shi-jie-shang-zui-kuai-de-deepseek-r1