开源 AI 终于接近闭源 AI 的主导地位。今天,开放模型类别的领先参与者之一Meta分享了一份年中更新,声称其 Llama 系列模型的采用率已飙升至新高,尤其是自上个月发布大型 Llama 3.1以来。
这家由马克·扎克伯格领导的公司透露,Llama 模型在 Hugging Face 上的下载量已接近 3.5 亿次,比一年前增长了 10 倍以上。该公司还指出,这些模型的采用量已大幅增长——无论是通过 Hugging Face 还是分销合作伙伴——Zoom、Spotify、Infosys、AT&T 和高盛等大型企业都在内部和外部用例中使用它们。
更新显示,最初起步缓慢的开源 AI 不仅在性能方面与闭源 AI 相媲美,而且在企业级也获得了显著的关注,为实际应用提供了支持。这也对 OpenAI 的领导地位提出了质疑,OpenAI因未能提供公告以外的前沿 AI 产品而受到批评。
Meta 的开源计划获得成功
OpenAI 在生成式人工智能领域占据先机,而 Meta 则凭借其 Llama 模型迅速加入这一潮流。该公司在 ChatGPT 发布三个月后推出了该模型。然而,该公司并没有选择闭源,而是专注于开放的方法,使其生态系统(涵盖 Llama 2、Llama 3 以及最近的 Llama 3.1)可通过 Hugging Face 和云合作伙伴获得。
“通过公开我们的 Llama 模型,我们看到了一个充满活力和多样化的人工智能生态系统,开发人员拥有比以往更多的选择和能力。创新范围广泛且迅速,从突破新界限的初创公司到使用 Llama 的各种规模的企业……”,该公司今天在一篇博客文章中写道。
法国初创公司 Mistral 也对其许多模型采用了同样的策略。这为开发人员提供了多个强大的开放模型,使他们能够在此基础上构建衍生模型,从而在特定指标上实现与封闭模型相当甚至超越封闭模型(参见FinGPT、BioBert、Defog SQLCoder和Phind)。
对于 Meta 来说,开放战略直到去年 7 月推出 Llama 2 后才开始受到关注。自推出以来,该公司模型在 Hugging Face 上的下载量激增了 10 倍以上,达到近 3.5 亿次。上个月,该公司在该平台上的下载量超过 2000 万次——这表明,随着最近 Llama 3.1 405B 的发布,吸引力进一步增加。
“我们看到开发者社区对 Llama 的青睐度不断增长,并且有强劲的迹象表明其将继续增长。根据 AI 基准测试独立网站 Artificial Analysis 的一项调查,Llama 是排名第二的受关注模型,也是开源行业的领导者,”该公司补充道。
利用 Llama 系列模型进行内部和外部用例的企业包括 AT&T、DoorDash、高盛、Niantic、野村、Shopify、Spotify、Zoom、Infosys 和毕马威 (KPMG)。
许多企业开发人员还通过 Meta 广泛的云和基础设施提供商网络(AWS、Microsoft Azure、Google Cloud、Groq、Nvidia、Databricks 和 Snowflake)利用 Llama 模型。该公司没有分享合作伙伴的具体数字,但它证实,对于部分云服务提供商来说,从 2024 年 1 月到 7 月,Llama 的月度使用量(按输入/输出代币量计算)增长了 10 倍。
统计数据似乎表明,托管的 Llama 使用量一直在持续增长(7 月份 Llama 3.1 发布时达到顶峰),但值得注意的是,这些数据仅针对该公司一些最大的云服务提供商,而不是所有合作伙伴。
这意味着实际的每月使用情况统计数据可能会有所不同。
OpenAI、Anthropic 面临压力
无论如何,Llama 被 AT&T 和 Spotify 等领先企业采用表明开源 AI 正在迅速赶上。近期性能的提升和开放式方法的长期成本效益是推动这一转变的最大因素之一。随着未来几个月的进一步发展,我们可以预期开源 AI 将完全取代封闭模型。这将给提供封闭模型的公司带来压力,促使它们进行更多创新并进一步降低使用其模型的成本。
值得注意的是,开源运动的影响已经显现。引发生成式人工智能浪潮的OpenAI已大幅下调了包括GPT-4o在内的现有模型的价格。
然而,在产品创新方面,山姆·奥特曼领导的研究实验室现在似乎落后了。迄今为止,它宣布的所有尖端人工智能产品,包括然而,在产品创新方面,山姆·奥特曼领导的研究实验室现在似乎落后了。迄今为止,它宣布的所有尖端人工智能产品,包括Sora和SearchGPT,要么尚未发布,要么仅向特定用户群体开放。和SearchGPT,要么尚未发布,要么仅向特定用户群体开放。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/meta-yin-ling-kai-yuan-ai-re-chao-llama-xia-zai-liang-tong