解决RAG与长上下文模型的困境,你学会了吗?

长文本模型非常适合减少某些需要更长上下文用例的幻觉,但并非所有情况都理想。 译自Solving the RAG vs. Long Context Model Dilemma,作者 Kiran Matty。

长文本模型非常适合减少某些需要更长上下文用例的幻觉,但并非所有情况都理想。

译自Solving the RAG vs. Long Context Model Dilemma,作者 Kiran Matty。

许多开发者一直在使用检索增强生成 (RAG) 和大规模上下文语料库来构建生成式AI应用程序,并解决诸如通用型大型语言模型 (LLM)面临的AI幻觉等问题。

现在,长上下文模型正在兴起,例如具有200万个token上下文窗口的Gemini,其潜在优势使您不禁想知道是否应该完全放弃RAG。解决这一难题的关键在于了解使用长上下文模型的优缺点,并根据您的用例做出明智的决定。

传统上,LLM具有较小的上下文窗口,这限制了可以一次处理的文本或token数量。到目前为止,RAG一直是解决此限制的有效方案。通过检索最相关的文本或上下文片段,用它来增强用户提示,然后将其传递给LLM,RAG可以有效地处理比上下文窗口通常支持的大得多的数据集。

然而,像Gemini这样的长上下文模型可以直接处理提供的上下文,而无需单独的RAG系统,从而简化了应用程序工作流程并可能减少延迟。要了解100万个token的上下文窗口,它相当于八部中等长度的英文小说或超过200集中等长度播客节目的文字记录。然而,它绝不是减少幻觉的灵丹妙药,并且也有其自身的局限性。

首先,长上下文模型会降低对相关信息的关注度,这会导致答案质量下降,NVIDIA的研究证实了这一点。

其次,对于问答聊天机器人等用例,重要的不是上下文信息的数量,而是质量。高质量的上下文是通过针对所提问题进行高度选择性的细粒度搜索实现的,而这是RAG能够实现的。

最后,长上下文模型需要更多GPU资源来处理长上下文,从而导致处理时间更长,成本更高。可以肯定地说,这些模型每次查询的成本更高。您可以使用键值 (KV) 缓存来缓存输入token以跨请求重用,但这需要大量的GPU内存,因此会增加相关成本。关键在于用更少的输入token实现高质量的答案。

尽管存在局限性,但长上下文模型支持一些需要更长上下文的引人注目的用例,例如翻译或摘要,例如,将文档从英语翻译成梵语(印度使用人数最少的语言)用于教育目的。由于梵语复杂的语法结构以及与其他广泛使用的语言相比,训练数据的有限性,LLM难以进行这种翻译。因此,提供足够数量的示例作为上下文将有助于提高翻译的准确性。其他方法包括一次对多个大型文档进行摘要和比较以生成见解,例如,比较多家公司的10K报告以创建财务基准。

长上下文模型对于某些需要更长上下文的用例非常适合减少幻觉。但是,对于所有其他用例,我们建议使用RAG检索与回答用户问题相关的上下文,以实现高精度和成本效益。如果RAG无法达到预期的精度,我们建议将RAG与微调结合使用以提高领域特异性。

Couchbase的Capella AI服务帮助像您这样的开发者快速构建高性能的RAG和自主代理应用程序。请随时注册我们的私人预览以开始您的AI项目。

相关资讯

AI创新标杆指南:机器之心Pro·AI 趋势先锋 Insight 榜单发布

机器之心Pro 根据企业的技术实力、产品创新性、市场与行业潜力、创新引导能力等多项标准,层层选拔,评选出四大板块的80 优质机构。2017年,机器之心发布了中国最早的AI评选榜单「Synced Machine Intelligence Awards」。与全球近 200 万从业者共同关注AI技术的发展,见证人工智能与我们发生的每一次互动和进步。作为科技领域的观察者和AI行业发展的见证者,五年时间里,AI技术一直保持着跨越式前进,机器之心的年度评选也逐渐成为了以AI为代表的产业科技风向标。随着传统产业对AI的认识更加成

IDC:华为字节细分领域分列第一,2023 下半年中国智算服务市场规模达 114.1 亿元、同比增长 85.8%

国际数据公司 IDC 最新发布的《中国智算服务市场(2023 下半年)跟踪》报告显示,2023 下半年中国智算服务市场整体规模达到 114.1 亿元人民币,同比增长 85.8%。智算服务是指以 GPU、FPGA、ASIC 等 AI 专用算力为主的基础设施服务,主要包括智算集成服务、智算基础设施即服务(AI在线备注:AI Infrastructure as a service,简称 AI IaaS)。AI IaaS 又细分为 GenAI IaaS(面向生成式 AI)和 Non-GenAI IaaS(非生成式 AI,如

微软更新服务条款:提醒用户谨慎使用 AI 工具

微软因其 AI 工具的准确性问题引发争议后,开始提醒用户谨慎对待其服务。该公司更新了服务协议,明确表示其 AI 工具应被视为辅助工具而非专业建议(professional advice)的替代品。新条款将于下月底生效,其中特别强调了其健康聊天机器人存在的问题,指出用户过度依赖其提供的建议可能带来风险。微软明确表示,AI 无法取代专业人士。微软修订后的条款特别针对其辅助 AI 的局限性:“AI 服务并非设计、意图或用于替代专业建议。”公司还补充道,健康聊天机器人“并非设计或意图替代专业医疗建议,或用于诊断、治疗、缓解