Liquid AI 推出 Liquid Foundation 模型:生成式 AI 领域的游戏规则改变者

Liquid AI 推出 Liquid Foundation 模型:生成式 AI 领域的游戏规则改变者

麻省理工学院的衍生公司Liquid AI在一份开创性的声明中推出了其首批Liquid Foundation 模型(LFM)。这些模型是根据第一原理设计的,为生成式 AI领域树立了新的标杆,在各个规模上都提供了无与伦比的性能。LFM 凭借其创新的架构和先进的功能,有望挑战包括 ChatGPT 在内的业界领先的 AI 模型。

Liquid AI 由麻省理工学院的研究人员团队创立,团队成员包括Ramin Hasani、 Mathias Lechner、Alexander Amini和 Daniela Rus。该公司总部位于马萨诸塞州波士顿,其使命是为各种规模的企业创建功能强大且高效的通用 AI 系统。该团队最初率先开发了液态神经网络,这是一类受大脑动力学启发的 AI 模型,现在旨在扩展 AI 系统在各个规模上的能力,从边缘设备到企业级部署。

什么是液体基础模型 (LFM)?

Liquid Foundation 模型代表了新一代 AI 系统,在内存使用和计算能力方面都非常高效。这些模型以动态系统、信号处理和数值线性代数为基础构建,旨在以惊人的准确性处理各种类型的顺序数据(例如文本、视频、音频和信号)。

在此次发布中,Liquid AI 开发了三种主要语言模型:

  • LFM-1B:具有 13 亿个参数的密集模型,针对资源受限的环境进行了优化。
  • LFM-3B:一个拥有 31 亿个参数的模型,非常适合边缘部署场景,例如移动应用程序。
  • LFM-40B:一个拥有 403 亿个参数的专家混合 (MoE) 模型,旨在以卓越的性能处理复杂任务。

这些模型已经在关键的 AI 基准上展示了最先进的结果,使其成为现有生成式 AI 模型的强大竞争对手。

一流的性能

Liquid AI 的 LFM 在各种基准测试中均表现出色。例如,LFM-1B 的表现优于同尺寸类别的基于 Transformer 的模型,而LFM-3B则可与 Microsoft 的 Phi-3.5 和 Meta 的 Llama 系列等更大的模型相媲美。尽管LFM-40B模型体积较小,但效率足以与参数数量更大的模型相媲美,从而在性能和资源效率之间实现了独特的平衡。

LFM 性能的一些亮点包括:

  • LFM-1B:在MMLU和ARC-C等基准测试中占据主导地位,为1B参数模型树立了新标准。
  • LFM-3B:效率超越了Phi-3.5和谷歌的Gemma 2等模型,同时保持了较小的内存占用,使其成为移动和边缘AI应用的理想选择。
  • LFM-40B:该模型的 MoE 架构提供与更大模型相当的性能,在任何给定时间都有 120 亿个活动参数。

人工智能效率的新时代

现代人工智能面临的一个重大挑战是管理内存和计算,尤其是在处理文档摘要或聊天机器人交互等长上下文任务时。LFM 在这方面表现出色,可以高效压缩输入数据,从而减少推理过程中的内存消耗。这使得模型能够处理更长的序列,而无需昂贵的硬件升级。

例如,LFM-3B提供32k 标记上下文长度– 使其成为需要同时处理大量数据的任务最有效的模型之一。

革命性的架构

LFM 建立在独特的架构框架上,不同于传统的 Transformer 模型。该架构以自适应线性算子为中心,可根据输入数据调节计算。这种方法使 Liquid AI 能够显著优化各种硬件平台(包括 NVIDIA、AMD、Cerebras 和 Apple 硬件)的性能。

LFM 的设计空间涉及一种新颖的标记混合通道混合结构,可改善模型处理数据的方式。这可带来卓越的泛化和推理能力,尤其是在长语境任务和多模态应用中。

拓展人工智能前沿

Liquid AI 对 LFM 抱有远大的期望。除了语言模型之外,该公司还致力于扩展其基础模型以支持各种数据模式,包括视频、音频和时间序列数据。这些进步将使 LFM 能够扩展到多个行业,例如金融服务、生物技术和消费电子产品。

该公司还致力于为开放科学界做出贡献。虽然模型本身目前尚未开源,但 Liquid AI 计划向更广泛的 AI 社区发布相关研究成果、方法和数据集,以鼓励合作和创新。

早期访问和采用

Liquid AI 目前通过各种平台提供其 LFM 的早期访问,包括Liquid Playground、Lambda(聊天 UI 和 API)和Perplexity Labs。希望将尖端 AI 系统集成到其运营中的企业可以探索 LFM 在从边缘设备到本地解决方案的不同部署环境中的潜力。

Liquid AI 的开放科学方法鼓励早期采用者分享他们的经验和见解。该公司正在积极寻求反馈,以改进和优化其模型以适应实际应用。有兴趣参与这一旅程的开发者和组织可以为红队工作做出贡献,并帮助 Liquid AI 改进其 AI 系统。

结论

Liquid Foundation 模型的发布标志着 AI 领域的重大进步。LFM 专注于效率、适应性和性能,有望重塑企业处理 AI 集成的方式。随着越来越多的组织采用这些模型,Liquid AI 的可扩展通用 AI 系统愿景很可能成为下一个人工智能时代的基石。

如果您有兴趣探索 LFM 为您的组织带来的潜力,Liquid AI 邀请您与我们取得联系并加入不断壮大的早期采用者社区,共同塑造 AI 的未来。

如需了解更多信息,请访问Liquid AI 的官方网站并立即开始尝试 LFM。

原创文章,作者:点点,如若转载,请注明出处:https://www.dian8dian.com/liquid-ai-tui-chu-liquid-foundation-mo-xing-sheng-cheng-shi

Like (0)
点点的头像点点
Previous 2024年10月6日 上午8:00
Next 2024年10月6日 上午10:00

相关推荐

发表回复

Please Login to Comment