RAG

FastRAG:半结构化数据的检索增强生成

本文介绍了FastRAG,一种针对半结构化数据的新型RAG方法。 FastRAG采用模式学习和脚本学习来提取和结构化数据,而无需将整个数据源提交给LLM。 它将文本搜索与知识图谱(KG)查询相结合,以提高在问答任务中检索上下文丰富信息的准确性。

Meta-Chunking: 通过逻辑感知学习高效的文本分段

本文是由人大提出的,旨在解决在检索增强生成(RAG)系统中,文本分段这一关键方面被忽视的问题。 具体来说,传统文本分段方法(如基于规则或语义相似性)在捕捉句子间深层语言逻辑联系方面存在不足,导致在知识密集型任务(如开放域问答)中的性能受到影响。 本文通过引入Meta-Chunking的概念及其两种实现策略(边际采样分段和困惑度分段),解决了以下几个关键问题:逻辑连贯性问题:问题:传统文本分段方法往往基于规则或语义相似性,难以捕捉句子间的深层逻辑联系(如因果、过渡、并行和渐进关系)。

FlashRAG:重塑RAG研究的Python工具包

在人工智能和自然语言处理(NLP)的广阔领域中,检索增强生成(Retrieval-Augmented Generation,简称RAG)模型正逐渐成为研究和应用的新热点。 RAG模型通过结合信息检索和生成能力,极大地提高了文本生成的质量和多样性。 然而,RAG研究面临着诸多挑战,如计算效率低下、工具链复杂等。

基于阿里开源Qwen2.5-7B-Instruct模型进行多代理RAG开发实战

译者 | 朱先忠审校 | 重楼引言大型语言模型已经展现出令人印象深刻的能力,并且随着每一代新模型的发布,它们仍在稳步改进。 例如,聊天机器人和自动摘要器等应用程序可以直接利用LLM的语言能力,因为这些LLM只要求生成文本输出——这也是该类模型的自然设置。 此外,大型语言模型还表现出了理解和解决复杂任务的令人印象深刻的能力,但是只要它们的解决方案保持“纸上谈兵”,即纯文本形式,那么它们就需要外部人类用户代表它们行事并报告所提议操作的结果。

我们一起聊聊如何给AI大模型喂数据?

大家好呀,我是飞鱼。 如果我想要大模型学习我的知识,怎么给他数据呢? 数据是大模型的食物,只有喂对了,模型才能更好地学习和成长。

从数据孤岛到智能系统:RAG和知识图谱的协同作用

译者 | 晶颜审校 | 重楼RAG和知识图谱集成可以释放出更大的潜力,实现更深入的理解、推理和准确性。 在当今信息驱动的时代,数据是企业、研究人员和个人的重要资源。 然而,这些数据通常分散在跨系统的孤岛中,它们是非结构化的,并且无法进行有效的分析。

2024 Github 十大最佳 RAG 框架

检索增强生成(RAG)已成为增强大型语言模型能力的一项强大技术。 RAG 框架结合了基于检索的系统和生成模型的优势,可以做出更准确、更能感知上下文和更及时的响应。 随着对复杂人工智能解决方案需求的增长,GitHub 上出现了许多开源 RAG 框架,每个框架都具有独特的特性和功能。

腾讯基于 RAG 和 Agent 技术的混元大模型业务落地实践

在本篇文章中,我们将深入探讨腾讯大语言模型在多个业务场景中的应用,特别是如何通过前沿技术提升模型的智能化与用户体验。 首先介绍腾讯大模型的广泛应用场景,如内容生成、智能客服和角色扮演等,并详细解析 RAG(Retrieval-Augmented Generation)技术及其在实际业务中的创新应用,特别是在文档生成和问答系统中的优势。 此外,文章还将探讨 GraphRAG 在角色扮演场景中的应用,如何结合知识图谱优化复杂的知识推理。

2025年企业对AI的期望

AI驱动的变革即将到来,但2025年将是缓慢而稳步进展的一年。 今年,随着更现实的期望占据主导,围绕AI的初步炒作和兴奋已经平息。 对于企业部署而言,这一点尤其明显,因为现有模型的能力与许多业务工作流的复杂性相结合,导致进展比许多人预期的要慢。

自己动手实现一个RAG应用

我们知道 RAG 有两个核心的过程,一个是把信息存放起来的索引过程,一个是利用找到相关信息生成内容的检索生成过程。 所以,我们这个 RAG 应用也要分成两个部分:索引和检索生成。 RAG 是为了让大模型知道更多的东西,所以,接下来要实现的 RAG 应用,用来增强的信息就是我们这门课程的内容,我会把开篇词做成一个文件,这样,我们就可以和大模型讨论我们的课程了。

RAG:让大模型知道更多东西

虽然我们说大模型的特点之一是知识丰富,但这里的知识仅限于通用的知识,也就是网上能够很容易找到的知识。 对于一些特定的知识,比如你所在业务领域的知识,它就一无所知了。 个中缘由,不言而喻,大模型训练时,根本不可能拿到你们公司的数据。

Elasticsearch虽好,但矢量数据库才是未来

作者 | Jiang Chen译者 | 布加迪审校 | 重楼出品 | 51CTO技术栈(微信号:blog51cto)几十年来,以Elasticsearch为代表的关键词匹配(又称为全文搜索)一直是企业搜索和推荐引擎等信息检索系统的默认选择。 随着基于人工智能的搜索技术不断进步,如今企业组织在向语义搜索转变,从而使系统能够理解用户查询背后的含义和意图。 嵌入模型和矢量数据库已成为这一转变的核心。

【RAG】浅看引入智能信息助理提升大模型处理复杂推理任务的潜力-AssisTRAG

AssisTRAG通过集成一个智能信息助手来提升LLMs处理复杂推理任务的能力。 该框架由两个主要组件构成:一个冻结的主语言模型和一个可训练的助手语言模型。 AssisTRAG与之前的RAG对比1.

没有思考过 Embedding,谈何 RAG,更不足以谈 AI大模型

今天,我们来聊聊 AI 大模型,有一个非常重要概念 "Embedding"。 你可能听说过它,也可能对它一知半解。 如果你没有深入了解过 Embedding,那你就无法真正掌握 RAG 技术,更不能掌握 AI 大模型精髓所在。

LLM-R:基于RAG和层次化Agent落地案例解析

在这个由智能设备主导的时代,维护工作的重要性愈发凸显,几乎成了生产活动的守护神。 想象一下,当一台精密的机器在深夜突发故障,而维护手册却像天书一样难以理解,这时,交互式电子技术手册(IETMs)就像一束温暖的灯塔,指引着维护人员安全渡过难关。 面对从图形用户界面(GUIs)到自然语言用户界面(LUIs)的转变,以及复杂逻辑关系的梳理,传统的IETMs显得有些力不从心。

大模型应用系列:从Ranking到Reranking

每个搜索引擎背后都隐藏着一个至关重要却往往被忽视的组成部分——Reranking(重新排名)。 那么,什么是Rerank呢? 简而言之,这一过程旨在优化并调整搜索结果的顺序,使之更加精准地匹配用户的查询需求。

RAG技术落地的两个问题及应对策略

什么是RAG? RAG的全称是检索增强生成(Retrieval-Augmented Generation,简称RAG),它结合了检索和和生成技术,通过整合检索系统和生成模型的优势,来提升模型生成文本的质量和上下文相关性。 这种技术主要是为了解决生成式模型在面对需要具体、实时或领域专业知识时可能产生的准确性不足和上下文不敏感的问题。

RAG新突破:块状注意力机制实现超低延迟检索增强

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]