人工智能初创公司Cohere发布了 Command R7B,这是其 R 模型系列中最小、最快的模型,以证明其支持广泛企业用例的意图,包括那些不需要昂贵、资源密集型的大型语言模型(LLM)的用例。
Command R7B 旨在支持快速原型设计和迭代,并使用检索增强生成 (RAG) 来提高其准确性。该模型的上下文长度为 128K,支持 23 种语言。Cohere 表示,它在数学和编码等任务中的表现优于同类开放权重模型中的其他模型——谷歌的 Gemma、Meta 的 Llama、Mistral 的 Ministral。
为您的组织做好生成式人工智能成功的准备 – 2024 年人工智能影响力之旅Preparing Your Organization for Generative AI Success – AI Impact Tour 2024
Cohere 联合创始人兼首席执行官艾丹·戈麦斯 (Aidan Gomez) 在宣布新模型的博客文章中写道: “该模型是为需要优化其用例的速度、成本效益和计算资源的开发人员和企业设计的。”
在数学、编码、RAG 方面超越竞争对手
Cohere 一直战略性地专注于企业及其独特的用例。该公司于 3 月推出了 Command-R,并于 4 月推出了功能强大的Command R+ ,并全年进行了升级以支持速度和效率。该公司称 Command R7B 是其 R 系列的“最终”型号,并表示将向 AI 研究界发布模型权重。
科赫尔指出,开发 Command R7B 时的一个关键重点领域是提高数学、推理、代码和翻译的性能。该公司似乎在这些领域取得了成功,新款小型模型在HuggingFace Open LLM 排行榜上名列前茅,击败了 Gemma 2 9B、Ministral 8B 和 Llama 3.1 8B 等类似尺寸的开放式重量模型。
此外,R 系列中最小的模型在 AI 代理、工具使用和 RAG 等领域的表现优于竞争模型,这有助于通过将模型输出基于外部数据来提高准确性。Cohere 表示,Command R7B 擅长对话任务,包括技术工作场所和企业风险管理 (ERM) 协助;技术事实;媒体工作场所和客户服务支持;人力资源常见问题解答;以及总结。Cohere 还指出,该模型在金融环境中检索和处理数字信息方面“非常出色”。
总体而言,Command R7B 在重要基准测试中平均排名第一,包括指令跟踪评估 (IFeval)、大型硬核测试 (BBH)、研究生级 Google 防护问答 (GPQA)、多步骤软推理(MuSR) 和大规模多任务语言理解(MMLU)。
删除不必要的通话功能
Command R7B 可以使用包括搜索引擎、API 和矢量数据库在内的工具来扩展其功能。Cohere 报告称,该模型的工具使用在伯克利函数调用排行榜上的表现优于竞争对手,该排行榜评估模型在函数调用(连接到外部数据和系统)方面的准确性。
戈麦斯指出,这证明了它在“现实世界、多样化和动态环境”中的有效性,并消除了对不必要的呼叫功能的需求。这可以使其成为构建“快速而有能力”的人工智能代理的不错选择。例如,Cohere 指出,当作为互联网增强搜索代理时,Command R7B 可以将复杂的问题分解为子目标,同时在高级推理和信息检索方面也表现出色。
由于体积小,Command R7B 可以部署在低端和消费级 CPU、GPU 和 MacBook 上,从而实现设备上的推理。该模型现已在 Cohere 平台和 HuggingFace 上提供。定价为每 100 万个输入令牌 0.0375 美元,每 100 万个输出令牌 0.15 美元。
戈麦斯写道:“对于寻求以内部文档和数据为基础的经济高效模型的企业来说,这是一个理想的选择。”
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/cohere-zui-xiao-zui-kuai-de-r-xi-lie-mo-xing-zai-rag-fang