利用训练数据以外的知识来增强大型语言模型 (LLM) 是一个重要领域,尤其是对于企业应用而言。将特定领域和客户知识融入 LLM 的最著名方法是使用检索增强生成(RAG)。然而,在许多情况下,简单的 RAG 技术是不够的。
构建有效的数据增强型 LLM 应用程序需要仔细考虑几个因素。在一篇新论文中,微软的研究人员提出了一个框架,用于根据 RAG 任务所需的外部数据类型及其涉及的推理复杂性对不同类型的 RAG 任务进行分类。
研究人员写道:“数据增强的 LLM 应用并不是一刀切的解决方案。现实世界的需求,特别是在专家领域,非常复杂,并且与给定数据的关系以及所需的推理难度可能会有很大差异。”
为了解决这种复杂性,研究人员根据所需的外部数据类型以及生成准确和相关响应所涉及的认知处理,提出了对用户查询进行四级分类的建议:
– 明确的事实:需要从数据中检索明确陈述的事实的查询。
– 隐含事实:需要推断数据中未明确说明的信息的查询,通常涉及基本推理或常识。
– 可解释的基本原理:需要理解和应用外部资源中明确提供的特定领域的基本原理或规则的查询。
– 隐藏的理由:需要揭示和利用数据中未明确描述的隐式特定领域推理方法或策略的查询。
每个级别的查询都呈现出独特的挑战,需要特定的解决方案才能有效地解决它们。
显式事实查询
显式事实查询是最简单的类型,侧重于检索所提供数据中直接陈述的事实信息。研究人员写道:“这一级别的定义特征是对特定外部数据的明确和直接依赖。”
解决这些查询的最常见方法是使用基本 RAG,其中 LLM 从知识库中检索相关信息并使用它来生成响应。
然而,即使有明确的事实查询,RAG 管道在每个阶段也面临多项挑战。例如,在索引阶段,RAG 系统会创建一个数据块存储,稍后可以将其作为上下文检索,这时它可能必须处理大型非结构化数据集,其中可能包含图像和表格等多模态元素。这可以通过多模态文档解析和多模态嵌入模型来解决,这些模型可以将文本和非文本元素的语义上下文映射到共享嵌入空间中。
在信息检索阶段,系统必须确保检索到的数据与用户的查询相关。在这里,开发人员可以使用技术来改善查询与文档存储的一致性。例如,LLM 可以为用户的查询生成合成答案。答案本身可能不准确,但它们的嵌入可用于检索包含相关信息的文档。
在答案生成阶段,模型必须确定检索到的信息是否足以回答问题,并在给定的上下文和其自身的内部知识之间找到适当的平衡。专门的微调技术可以帮助 LLM 学会忽略从知识库中检索到的不相关信息。检索器和响应生成器的联合训练也可以带来更一致的性能。
隐式事实查询
隐性事实查询要求法学硕士不仅要检索明确陈述的信息,还要进行一定程度的推理或演绎来回答问题。研究人员写道:“这一级别的查询需要收集和处理来自集合中多个文档的信息。”
例如,用户可能会问“X 公司上个季度销售了多少产品?”或“X 公司和 Y 公司的战略主要有什么不同?”回答这些问题需要结合知识库中来自多个来源的信息。这有时被称为“多跳问答”。
隐式事实查询带来了额外的挑战,包括需要协调多个上下文检索以及有效地整合推理和检索能力。
这些查询需要高级 RAG 技术。例如,交叉检索与思维链 ( IRCoT ) 和检索增强思维 ( RAT ) 等技术使用思维链提示根据先前回忆的信息来指导检索过程。
另一种有前途的方法是将知识图谱与 LLM 相结合。知识图谱以结构化格式表示信息,使其更容易执行复杂的推理并链接不同的概念。图 RAG 系统可以将用户的查询转换为包含来自图数据库的不同节点的信息的链。
可解释的理由查询
可解释的原理查询要求 LLM 不仅理解事实内容,还应用特定领域的规则。这些原理可能不存在于 LLM 的预训练数据中,但在知识语料库中也不难找到。
研究人员写道:“可解释的原理查询代表了应用程序中相对简单的类别,这些类别依赖外部数据来提供原理。这些类型的查询的辅助数据通常包括用于解决问题的思维过程的清晰解释。”
例如,客户服务聊天机器人可能需要将处理退货或退款的记录指南与客户投诉提供的背景信息结合起来。
处理这些查询的关键挑战之一是有效地将提供的理由整合到 LLM 中,并确保它能够准确遵循这些理由。及时调整技术(例如使用强化学习和奖励模型的技术)可以增强 LLM 遵循特定理由的能力。
LLM 还可用于优化自己的提示。例如,DeepMind 的 OPRO 技术使用多个模型来评估和优化彼此的提示。
开发人员还可以使用 LLM 的思路链推理功能来处理复杂的原理。但是,手动设计可解释原理的思路链提示可能非常耗时。Automate -CoT等技术可以帮助自动化此过程,方法是使用 LLM 本身从小型标记数据集中创建思路链示例。
隐藏理由查询
隐藏的原理查询是最大的挑战。这些查询涉及数据中未明确说明的特定领域的推理方法。法学硕士必须发现这些隐藏的原理并应用它们来回答问题。
例如,模型可能可以访问历史数据,这些数据隐含着解决问题所需的知识。模型需要分析这些数据,提取相关模式,并将其应用于当前情况。这可能涉及将现有解决方案调整为新的编码问题,或使用以前法律案件的文档对新问题进行推断。
研究人员写道:“解答隐藏的合理查询……需要复杂的分析技术来解码和利用隐藏在不同数据源中的潜在智慧。”
隐藏理由查询的挑战包括检索与查询在逻辑上或主题上相关的信息,即使它在语义上并不相似。此外,回答查询所需的知识通常需要从多个来源整合。
一些方法利用LLM 的情境学习能力来教学生如何从多个来源选择和提取相关信息并形成逻辑原理。其他方法则侧重于为少量和多次提示生成逻辑原理示例。
然而,有效解决隐藏理由查询通常需要某种形式的微调,尤其是在复杂领域。这种微调通常是针对特定领域的,涉及使用示例训练 LLM,使其能够推理查询并确定需要哪种外部信息。
对构建 LLM 申请的意义
微软研究团队编制的调查和框架显示了 LLM 在将外部数据用于实际应用方面取得了多大的进展。然而,这也提醒我们,还有许多挑战尚未解决。企业可以使用此框架做出更明智的决策,确定将外部知识集成到其 LLM 中的最佳技术。
RAG 技术可以在很大程度上克服原始 LLM 的许多缺点。但是,开发人员还必须意识到他们所用技术的局限性,并知道何时升级到更复杂的系统或避免使用 LLM。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/wei-ruan-yan-jiu-ren-yuan-ti-chu-le-gou-jian-shu-ju-zeng