
DeepSeek-R1刚出现时,业界普遍担忧先进推理能力的实现可能会减少对基础设施的需求。然而,事实证明情况并非如此。至少,根据Together AI的说法,DeepSeek和开源推理的兴起产生了完全相反的效果:它不仅没有减少,反而增加了对基础设施的需求。这种增加的需求进一步推动了Together AI平台和业务的增长。今日,该公司宣布完成了一轮3.05亿美元的B轮融资,由General Catalyst领投,Prosperity7联合领投。
Together AI自2023年成立以来,旨在简化企业对开源大型语言模型(LLMs)的使用。2024年,公司推出了Together企业平台,支持在虚拟私有云(VPC)和本地环境中部署AI。2025年,Together AI再次扩展其平台,增加了推理集群和代理式AI功能。公司声称,其AI部署平台拥有超过45万名注册开发者,业务年增长率达到6倍。客户包括企业和AI初创公司,如Krea AI、Captions和Pika Labs。
“我们现在服务于所有模态的模型:语言、推理、图像、音频和视频,”Together AI首席执行官Vipul Prakash告诉VentureBeat。
DeepSeek-R1对AI基础设施需求的巨大影响
DeepSeek-R1的首次亮相极具颠覆性,原因之一是它暗示了一个前沿的开源推理模型可以比专有模型使用更少的基础设施来构建和部署。然而,Prakash解释说,Together AI之所以扩大基础设施,部分原因是为了支持DeepSeek-R1相关工作负载的增加需求。“这是一个运行推理相当昂贵的模型,”他说,“它有6710亿个参数,需要分布在多个服务器上。而且,由于质量更高,通常对高端的需求也更大,这意味着你需要更多的容量。”此外,他还指出,DeepSeek-R1的请求通常持续时间更长,可能长达两到三分钟。用户对DeepSeek-R1的巨大需求进一步推动了对更多基础设施的需求。为满足这一需求,Together AI推出了一项名为“推理集群”的服务,提供从128到2000个芯片的专用容量,以最佳性能运行模型。
Together AI如何帮助企业使用推理AI
Together AI在多个特定领域看到了推理模型的使用,包括:
编码代理:推理模型有助于将大问题分解为步骤。
减少幻觉:推理过程有助于验证模型的输出,从而减少幻觉,这对于准确性至关重要的应用尤为重要。
改进非推理模型:客户正在提炼和改进非推理模型的质量。
实现自我改进:使用强化学习与推理模型相结合,允许模型递归地自我改进,而无需依赖大量人工标记的数据。
代理式AI也在推动AI基础设施需求的增加。Prakash解释说,代理式工作流中,单个用户请求会导致成千上万的API调用以完成任务,这给Together AI的基础设施带来了更多的计算需求。为支持代理式AI工作负载,Together AI最近收购了CodeSandbox,其技术提供了轻量级、快速启动的虚拟机(VM),以在Together AI云中执行任意、安全的代码,其中也驻留了语言模型。这减少了代理代码与需要调用的模型之间的延迟,提高了代理式工作流的性能。
Nvidia Blackwell芯片的影响
所有AI平台都面临着日益增长的需求。这也是Nvidia不断推出提供更高性能的新硅芯片的原因之一。Nvidia的最新产品芯片是Blackwell GPU,目前正在Together AI部署。Prakash表示,Blackwell芯片的成本比上一代高出约25%,但性能提高了一倍。配备Blackwell芯片的GB 200平台特别适合在多个InfiniBand连接的服务器上训练和推理混合专家(MoE)模型。他还指出,与小型模型相比,Blackwell芯片预计将为大型模型的推理提供更大的性能提升。
代理式AI市场的竞争态势
AI基础设施平台市场竞争激烈。Together AI既面临来自微软、AWS和谷歌等成熟云服务提供商的竞争,也面临来自Groq和Samba Nova等新兴AI专注型企业的竞争。Together AI提供全栈解决方案,包括GPU基础设施以及软件平台层。这使客户能够轻松地使用开源模型构建,或在Together AI平台上开发自己的模型。公司还专注于研究和开发针对推理和训练的优化和加速运行时。“例如,我们以每秒85个令牌的速度提供DeepSeek-R1模型,而Azure的速度为每秒7个令牌,”Prakash说,“我们为客户提供的性能和成本效益方面的差距正在不断扩大。”
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/together-ai-3-05-yi-mei-yuan-du-zhu-deepseekr1-deng-tui-li