MoE
-
Meta 提出新的可扩展记忆层,可提高知识水平并减少幻觉
随着企业继续在各种应用中采用大型语言模型 (LLM),他们面临的关键挑战之一是提高模型的事实知识并减少幻觉。在一篇新论文中,Meta AI的研究人员提出了“可扩展的内存层”,这可能…
-
混元大和 MoE 革命:AI 模型如何变得更智能、更快速
人工智能 (AI)正在以惊人的速度发展。十年前看似未来的概念现在已成为我们日常生活的一部分。然而,我们现在遇到的人工智能才刚刚开始。由于幕后的发展,尚未见证根本性的转变,大量模型能…
-
可区分自适应合并正在加速企业的 SLM
模型合并是一个基本的人工智能过程,使组织能够重复使用和组合现有的训练模型来实现特定目标。 如今,企业可以使用各种方法进行模型合并,但许多方法都很复杂。一种称为可微分自适应合并(DA…
-
AI2 的新模型旨在实现开放、强大且具有成本效益
艾伦人工智能研究所(AI2)与Contextual AI合作发布了一个新的开源模型,希望能够满足对性能强大且具有成本效益的大型语言模型(LLM)的需求。 新模型称为 OLMoE,…