SambaNova Systems和Gradio推出了一项新的集成,让开发人员只需几行代码即可访问最快的 AI 推理平台之一。此次合作旨在让高性能 AI 模型更易于访问,并加快开发人员和企业采用人工智能的速度。
Gradio 机器学习增长主管 Ahsen Khaliq 在接受 VentureBeat 采访时表示: “这种集成让开发人员可以轻松地从SambaNova 游乐场复制代码,只需几行代码即可在几分钟内运行Gradio Web 应用程序。借助 SambaNova Cloud 的超快速推理功能,这意味着开发人员和最终用户都能获得出色的用户体验。”
SambaNova-Gradio 集成使用户能够使用 Gradio 的功能创建由 SambaNova 的高速 AI 模型驱动的 Web 应用程序gr.load()
。开发人员现在可以快速生成连接到 SambaNova 模型的聊天界面,从而更轻松地使用高级 AI 系统。
超越 GPU:AI 处理中数据流架构的兴起
SambaNova 是一家由软银和贝莱德支持的硅谷初创公司,该公司凭借其数据流架构芯片在人工智能硬件领域掀起了波澜。这些芯片旨在超越传统 GPU 来处理人工智能工作负载,该公司声称提供“世界上最快的人工智能推理服务”。
SambaNova 的平台可以以每秒 132 个令牌的速度全精度运行 Meta 的Llama 3.1 405B 模型,这一速度对于希望大规模部署 AI 的企业来说尤为重要。
随着人工智能基础设施市场升温,SambaNova、Groq和Cerebras等初创公司正在挑战Nvidia在人工智能芯片领域的主导地位。这些新进入者专注于推理——人工智能的生产阶段,模型根据训练生成输出——预计这将成为一个比模型训练更大的市场。
从代码到云:简化人工智能应用程序开发
对于开发人员来说,SambaNova-Gradio 集成提供了一个无摩擦的切入点来尝试高性能 AI。用户可以访问 SambaNova 的免费套餐,将任何受支持的模型打包到 Web 应用程序中,并在几分钟内自行托管。这种易用性反映了旨在简化 AI 应用程序开发的最新行业趋势。
该集成目前支持 Meta 的Llama 3.1 系列模型,包括海量 405B 参数版本。SambaNova 声称是唯一一家以全 16 位精度高速运行此模型的提供商,这种保真度水平对于需要高精度的应用(例如医疗保健或金融服务)尤其有吸引力。
人工智能的隐性成本:驾驭速度、规模和可持续性
虽然这种集成使高性能人工智能更加容易实现,但人们对正在进行的人工智能芯片竞争的长期影响仍然存在疑问。随着各家公司竞相提供更快的处理速度,人们对能源使用、可扩展性和环境影响的担忧也与日俱增。
虽然关注每秒令牌数等原始性能指标很重要,但可能会掩盖人工智能部署中的其他关键因素。随着企业将人工智能融入其运营,他们需要在速度与可持续性之间取得平衡,同时考虑总拥有成本,包括能源消耗和冷却要求。
此外,支持这些新型 AI 芯片的软件生态系统将极大地影响它们的采用。尽管 SambaNova 和其他公司提供了强大的硬件,但Nvidia 的 CUDA 生态系统凭借其众多优化库和工具保持优势,许多 AI 开发人员已经熟知这些库和工具。
随着人工智能基础设施市场的不断发展,像 SambaNova-Gradio 这样的合作可能会变得越来越普遍。这些合作有可能促进这一有望全面改变行业的领域的创新和竞争。然而,真正的考验在于这些技术如何转化为现实世界的应用,以及它们是否能够兑现让所有人都能获得更便捷、更高效、更强大的人工智能的承诺。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/sambanova-he-gradio-rang-mei-ge-ren-dou-neng-shi-yong-gao