企业对人工智能模型的判断:开源为何会胜出

企业对人工智能模型的判断:开源为何会胜出

企业界对开源大型语言模型 (LLM) 的使用正在迅速增加,这是由于企业在 AI 方面变得越来越成熟——寻求更强的控制力、定制化和成本效率。 

虽然 OpenAI 的 GPT-4 等封闭模型在早期采用中占据主导地位,但开源模型此后已经缩小了质量差距,并且在企业中的增长速度至少同样快。

这与今年早些时候的情况有所不同,当时我报道说,虽然开源的前景不可否认,但采用速度相对较慢。但 Meta表示,其公开可用的模型现已被下载超过 4 亿次,下载速度是去年的 10 倍,从 5 月到 2024 年 7 月,使用量翻了一番。采用率的激增反映了多种因素的融合——从技术平等到信任考虑——这些因素正在推动先进企业走向开放替代方案。

Groq 是一家专门提供 AI 处理基础设施的供应商,该公司的首席执行官乔纳森·罗斯 (Jonathan Ross) 表示:“开放总是胜利的。大多数人都担心供应商锁定。”Groq 的采用率很高,该公司发现大量客户使用开放模式。

甚至连 AWS 也承认了这一势头,该公司曾向闭源提供商 Anthropic投资了 40 亿美元——这是其有史以来最大的一笔投资。AWS 人工智能和基础设施副总裁 Baskar Sridharan 表示:“过去几个月,我们确实看到公开可用模型的吸引力在不断增加。”AWS 通过其 Bedrock 服务提供尽可能多的模型,包括开源和闭源模型。 

大型应用公司的平台转型加速了应用的采用

确实,在初创公司或个人开发者中,OpenAI 等闭源模型仍然处于领先地位。但在企业中,情况看起来截然不同。不幸的是,没有第三方来源跟踪企业中开放与封闭的 LLM 竞赛,部分原因是这几乎不可能做到:企业世界过于分散,公司过于私密,无法公开这些信息。API 公司 Kong 在 7 月份调查了 700 多名用户。但受访者既包括小公司也包括大公司,因此偏向 OpenAI,毫无疑问,OpenAI 在寻求简单选择的初创公司中仍然处于领先地位。(该报告还包括其他 AI 服务,如 Bedrock,它不是 LLM,但提供多个 LLM,包括开源 LLM——因此它混合了苹果和橘子。)

企业对人工智能模型的判断:开源为何会胜出

但从传闻来看,证据正在不断增加。首先,最近各大商业应用程序提供商都积极整合开源 LLM,从根本上改变了企业部署这些模型的方式。Salesforce上个月推出了 Agentforce ,引领了最新一波浪潮,它认识到其客户关系管理客户需要更灵活的 AI 选项。该平台使公司能够在 Salesforce 应用程序中插入任何 LLM,从而有效地使开源模型与封闭模型一样易于使用。Salesforce 旗下的 Slack 迅速效仿

上个月,Oracle 还在其企业套件中扩展了对最新 Llama 模型的支持,其中包括 ERP、人力资源和供应链等大型企业应用程序。另一家商业应用程序巨头 SAP宣布通过其 Joule AI copilot 提供全面的开源 LLM 支持,而 ServiceNow 则支持开放和封闭的 LLM 集成,以实现客户服务和 IT 支持等领域的工作流自动化。

Oracle 人工智能和数据管理服务执行副总裁 Greg Pavlik 表示:“我认为开放模式最终会胜出。”他表示,修改模型和实验的能力(尤其是在垂直领域)加上优惠的成本,对企业客户来说非常有吸引力。

“开放”模式的复杂格局

虽然 Meta 的 Llama 已成为领跑者,但开放的 LLM 生态系统已发展成为一个微妙的市场,对开放的态度各有不同。首先,Meta 的 Llama 在市场上拥有超过 65,000 个模型衍生品。企业 IT 领导者必须驾驭这些衍生品,以及其他选项,从完全开放的权重和训练数据到具有商业许可的混合模型。

例如,Mistral AI 通过提供高性能模型和灵活的许可条款获得了巨大的吸引力,这对需要不同级别支持和定制的企业很有吸引力。Cohere 采取了另一种方法,提供开放模型权重,但需要许可费——一些企业更喜欢这种模式,因为它在透明度和商业支持之间取得了平衡。

开放模型领域的这种复杂性已成为成熟企业的优势。公司可以选择符合其特定需求的模型——无论是完全控制模型权重以实现高度定制,还是支持开放权重模型以实现更快的部署。领导者表示,检查和修改这些模型的能力提供了完全封闭的替代方案所无法实现的控制水平。使用开源模型通常还需要技术更精湛的团队来有效地微调和管理模型,这也是拥有更多资源的企业在使用开源时占上风的另一个原因。

Meta 对 Llama 的快速开发体现了企业为何青睐开放模型的灵活性。AT&T 使用基于 Llama 的模型实现客户服务自动化,DoorDash 帮助回答软件工程师的问题,Spotify 提供内容推荐。高盛已在受到严格监管的金融服务应用中部署了这些模型。其他 Llama 用户包括 Niantic、野村证券、Shopify、Zoom、埃森哲、印孚瑟斯、毕马威、富国银行、IBM 和格莱美奖。 

Meta 积极培育渠道合作伙伴。目前,所有主要的云提供商都采用 Llama 模型。Meta 产品副总裁 Ragavan Srinivasan 表示:“他们开始看到企业客户对 Llama 的兴趣和部署数量呈爆炸式增长,尤其是在 Llama 3.1 和 3.2 发布之后。大型 405B 模型尤其受到广泛关注,因为非常成熟、精明的企业客户看到了在多个模型之间切换的价值。”他表示,客户可以使用提炼服务从 Llama 405B 创建衍生模型,以便能够根据他们的数据对其进行微调。提炼是在保留核心功能的同时创建更小、更快的模型的过程。 

事实上,Meta 的其他模型组合已经很好地覆盖了整个领域,包括 Llama 90B 模型(可用作大多数提示的主力模型)以及 1B 和 3B(足够小,可以在设备上使用)。今天,Meta发布了这些较小模型的“量化”版本。量化是另一个使模型更小、功耗更低、处理速度更快的过程。这些最新模型的特殊之处在于,它们是在训练过程中量化的,这使得它们比其他行业量化仿制品更高效——在生成令牌时比原始模型快四倍,而功耗仅为其四分之一。

技术能力推动复杂部署

开放模式和封闭模式之间的技术差距已基本消失,但每种模式都显示出独特的优势,成熟的企业正在学习战略性地利用这些优势。这导致了更细致入微的部署方法,企业根据特定的任务要求组合不同的模式。

Salesforce 人工智能执行副总裁 Jayesh Govindarajan 解释说:“大型专有模型在高级推理和分解模糊任务方面表现非凡。”但对于推理能力较弱、语言编写能力较强的任务,例如起草电子邮件、创建活动内容、研究公司,“开源模型的表现不相上下,有些甚至更好。”此外,即使是高推理能力的任务也可以分解为子任务,其中许多子任务最终会成为开源擅长的语言任务,他说。 

会计软件 Quickbooks 和税务软件 Turbotax 的所有者 Intuit 几年前就开始了其 LLM 之旅,成为财富 500 强公司中的先行者。它的实施展示了一种复杂的方法。对于面向客户的应用程序(例如 QuickBooks 中的交易分类),该公司发现其基于 Llama 3 构建的经过微调的 LLM 比封闭的替代方案具有更高的准确性。“我们发现,我们可以采用其中一些开源模型,然后对其进行精简,并用于特定领域的需求,”Intuit 首席数据官 Ashok Srivastava 解释说。它们“可以更小巧、更低延迟,并且准确性相同甚至更高。”

银行业体现了从封闭式到开放式法学硕士的转变。为澳大利亚和新西兰提供服务的澳新银行 (ANZ Bank) 最初使用 OpenAI 进行快速实验。但当它开始部署实际应用程序时,它放弃了 OpenAI,转而对自己基于 Llama 的模型进行微调,以适应其特定的金融用例,这些用例受稳定性和数据主权需求的驱动。该银行发布了一篇关于这一体验的博客,指出 Llama 的多个版本、灵活托管、版本控制和更轻松的回滚提供了灵活性。我们知道另一家美国三大银行最近也放弃了 OpenAI。

正是这样的例子,当公司想要离开 OpenAI 转而采用开源时, PostgresML 等公司就推出了“转换套件”,让人们可以轻松地在“几分钟内”退出 OpenAI 并转向开源。

基础设施的发展消除了部署障碍

部署开源 LLM 的途径已大大简化。Meta 的 Srinivasan 概述了企业采用开源 LLM 的三条关键途径:

  1. 云合作伙伴集成:主要的云提供商现在提供简化的开源模型部署,并具有内置的安全性和扩展功能。
  2. 定制堆栈开发:具有技术专长的公司可以构建自己的基础设施(无论是在本地还是在云端),完全控制他们的 AI 堆栈——而 Meta 正在通过其所谓的Llama Stack提供帮助。
  3. API 访问:对于追求简单性的公司,现在有多家提供商提供对开源模型的 API 访问,使它们像封闭式替代方案一样易于使用。Groq、Fireworks 和 Hugging Face 就是例子。它们都能够为您提供推理 API、微调 API,以及您需要的或从专有提供商那里获得的基本上任何东西。

安全和控制优势凸显

开源方法也出人意料地成为模型安全和控制领域的领导者,特别是对于需要严格监督其 AI 系统的企业而言。“Meta 在安全方面非常谨慎,因为他们将其公开,”Groq 的 Ross 指出。“他们实际上对此更加谨慎。而对于其他公司,你无法真正看到发生了什么,也无法轻松测试它。”

Meta 对安全的重视反映在它的组织结构中。Ross 援引了几个月前与 Meta 的对话,称其团队专注于 Llama 的安全性和合规性,而工程团队则更关注合规性。(Meta 发言人表示,该公司不对人员信息发表评论)。9 月份发布的 Llama 3.2引入了 Llama Guard Vision ,这是7 月份发布的安全工具的补充。这些工具可以:

  • 在文本和图像输入到达模型之前检测出可能存在问题的文本和图像输入
  • 监控和过滤输出响应以确保安全性和合规性

企业 AI 提供商已在这些基础安全功能的基础上进行构建。例如,AWS 的 Bedrock 服务允许公司在不同模型之间建立一致的安全护栏。“一旦客户设置了这些策略,他们就可以选择从一个公开可用的模型转移到另一个模型,而无需实际重写应用程序,”AWS 的 Sridharan 解释道。这种标准化对于管理多个 AI 应用程序的企业至关重要。

领先的企业云数据提供商 Databricks 和 Snowflake 也为 Llama 的安全性提供了保证:“Llama 模型保持了‘最高的安全性和可靠性标准’”,Neural Networks 首席技术官 Hanlin Tang 表示

Intuit 的实施表明企业可以分层采取额外的安全措施。该公司的 GenSRF(安全、风险和欺诈评估)系统是其“GenOS”操作系统的一部分,可监控大约 100 个信任和安全维度。“我们有一个委员会负责审查 LLM,并确保其标准符合公司的原则,”Intuit 的 Srivastava 解释道。然而,他说这些对开放模型的审查与公司对闭源模型的审查没有什么不同。

通过综合训练解决数据来源问题

人们对 LLM 的一个主要担忧是他们所接受的训练数据。出版商和其他创作者提起了大量诉讼,指控 LLM 公司侵犯版权。大多数 LLM 公司(无论是开放的还是封闭的)都没有完全透明地说明他们从哪里获取数据。由于大部分数据来自开放网络,因此数据可能带有很大的偏见,并且包含个人信息。 

许多闭源公司为用户提供了“赔偿”,即保护用户免受使用 LLM 带来的法律风险或索赔诉讼。开源提供商通常不提供此类赔偿。但最近,对数据来源​​的担忧似乎有所减少。模型可以通过微调进行基础和过滤,Meta 和其他公司已经创建了更多的协调和其他安全措施来抵消这种担忧。数据来源仍然是一些企业公司面临的问题,尤其是那些受到严格监管的行业,例如银行业或医疗保健业。但一些专家表示,这些数据来源问题可能很快就会通过合成训练数据得到解决。 

“想象一下,我可以获取公共专有数据,并通过某种算法对其进行修改,以创建代表现实世界的合成数据,”Salesforce 的 Govindarajan 解释道。“那么我实际上不需要访问所有这些互联网数据……数据来源问题就消失了。”

Meta 顺应了这一趋势,在 Llama 3.2 的 1B 和 3B 模型中加入了合成数据训练。 

区域模式可能揭示成本驱动的采用

开源 LLM 的采用显示出不同的区域和行业特定模式。“在北美,闭源模型肯定比开源模型得到更多的生产使用,”Oracle 的 Pavlik 观察到。“另一方面,在拉丁美洲,我们看到 Llama 模型在生产场景中的使用率大幅上升。这几乎是颠倒的。”

目前尚不清楚造成这些地区差异的原因,但它们可能反映了成本和基础设施方面的不同优先事项。帕夫利克描述了一种全球范围内的场景:“一些企业用户出去,开始使用 GPT-4 制作一些原型。他们收到了第一张账单,然后就说,‘天哪。’这比他们预期的要贵得多。然后他们开始寻找替代方案。”

市场动态指向商品化

LLM 部署的经济效益正在发生巨大转变,有利于开放模型。风险投资家 Marc Andreessen 指出:“去年,生成的 LLM 产出的每个代币价格下降了 100 倍” ,他质疑闭源模型提供商的利润是否难以实现。这种潜在的“竞相压价”给那些为闭源模型开发筹集了数十亿美元的公司带来了特别的压力,同时有利于那些能够通过核心业务维持开源开发的组织。

Intuit 的 Srivastava 表示:“我们知道这些模型的成本将降为零”,并警告称,“过度投资这些模型的公司很快就会遭受后果。”这种动态尤其有利于 Meta,它可以提供免费模型,同时从其平台和产品的应用中获得价值。

Groq 的 Ross 表示,LLM 竞争的一个好比喻是操作系统之战。“Linux 可能是 LLM 的最佳类比。”虽然 Windows 主导了消费计算,但开源 Linux 却主导了企业系统和工业计算。Intuit 的 Srivastava 看到了同样的模式:“我们一次又一次地看到:开源操作系统与非开源操作系统的较量。我们看到了浏览器之战中发生的事情”,当时开源 Chromium 浏览器击败了封闭模式。

SAP 全球人工智能主管 Walter Sun 对此表示赞同:“我认为,人们可以像使用闭源模型一样利用开源大型语言模型,这为人们提供了更大的灵活性。”他继续说道:“如果你有特定的需求、特定的用例……最好的方法就是使用开源。”

一些观察人士,比如 Groq 的 Ross,认为 Meta 可能愿意投入 1000 亿美元来训练其 Llama 模型,这将超过专有模型提供商的总承诺,他说。他说,Meta 有动力这样做,因为它是 LLM 的最大受益者之一。它需要它们来提高其核心业务的智能化,通过为 Instagram、Facebook、Whatsapp 上的用户提供人工智能。Meta 表示,其人工智能每周影响 1.85 亿活跃用户,这一规模无人能及。 

这表明开源 LLM 不会面临其他开源计划所面临的可持续性挑战。“从明年开始,我们预计未来的 Llama 模型将成为业内最先进的模型,”Meta 首席执行官马克·扎克伯格 (Mark Zuckerberg) 在 7 月份支持开源 AI 的信中表示。“但即使在此之前,Llama 已经在开放性、可修改性和成本效率方面处于领先地位。”

专业模型丰富了生态系统

随着专业行业解决方案的出现,开源 LLM 生态系统得到了进一步加强。例如,IBM 已将其 Granite 模型作为完全开源模型发布,专门针对金融和法律应用进行训练。IBM 生成 AI 全球管理合伙人 Matt Candy 表示:“Granite 模型是我们的杀手级应用。这些模型是唯一能够完全解释经过训练和调整的数据集的模型。如果您身处受监管的行业,并且要将您的企业数据与该模型结合起来,那么您一定希望非常清楚其中的内容。”

IBM 的业务受益于开源,包括将其 Red Hat Enterprise Linux 操作系统整合到混合云平台中,其中包括使用 Granite 模型和 InstructLab,这是一种微调和增强 LLM 的方法。人工智能业务已经开始起步。“看看股票价格,”Candy 说。“历史最高。”

信任越来越青睐开源

信任正转向企业可以拥有和控制的模型。Inflection AI 的首席运营官 Ted Shelton 解释了封闭式模型面临的根本挑战。Inflection AI 是一家为企业提供授权源代码和完整应用程序堆栈的公司,可作为封闭式和开源模型的替代方案。他解释了封闭式模型面临的根本挑战:“无论是 OpenAI、Anthropic、Gemini 还是微软,他们都愿意为其企业客户提供所谓的私有计算环境。但是,该计算环境仍由模型提供商的员工管理,客户无权访问该模型。”这是因为 LLM 所有者希望保护专有元素,例如源代码、模型权重和超参数训练细节,这些元素无法对可以直接访问模型的客户隐藏。由于这些代码大部分是用 Python 而不是编译语言编写的,因此它们仍然暴露在外。

这对那些认真考虑部署 AI 的企业来说,是一个难以维持的局面。“一旦你说‘好吧,OpenAI 的员工实际上将控制和管理该模型,他们可以访问公司的所有数据’,它就成为数据泄露的载体,”谢尔顿指出。“真正关心数据安全的公司会说‘不,我们不会这样做。我们实际上要运行我们自己的模型。唯一可用的选择是开源。’”

前进的道路

虽然闭源模型在简单用例的市场份额上保持领先,但成熟的企业越来越认识到,他们未来的竞争力取决于对其 AI 基础设施的更多控制。正如 Salesforce 的 Govindarajan 所观察到的:“一旦你开始看到价值,并开始将其扩展到所有用户、所有客户,那么你就会开始问一些有趣的问题。是否有效率可言?是否有成本效率可言?是否有速度效率可言?”

这些问题的答案正在推动企业走向开放模式,即使转变并不总是一帆风顺的。“我确实认为有很多公司会非常努力地尝试让开源发挥作用​​,”Inflection AI 的 Shelton 说,“因为他们没有其他选择。你要么屈服并说几家大型科技公司拥有生成式人工智能,要么接受马克·扎克伯格抛给你的救命稻草。你会说:‘好吧,让我们继续吧。’”

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/qi-ye-dui-ren-gong-zhi-neng-mo-xing-de-pan-duan-kai-yuan

Like (0)
王 浩然的头像王 浩然作者
Previous 2024年10月27日
Next 2024年10月27日

相关推荐

发表回复

Please Login to Comment