AI在线 AI在线

RAG

一文读懂 Agentic RAG 技术点滴

大型语言模型(Large Language Models, LLMs)彻底改变了我们与信息的交互方式。 然而,LLMs 完全依赖内部知识的局限性,常常限制了其在处理复杂问题时的准确性和深度。 正是在这一背景下,检索增强生成(Retrieval-Augmented Generation, RAG)应运而生。
4/10/2025 12:12:00 AM
Luga Lee

RAG还是微调?AI落地的关键选择

你是否曾经面临这样的困境:部门刚刚决定采用大语言模型解决业务痛点,但技术团队却陷入了"到底该用RAG还是微调"的激烈争论中? 一边是成本控制派,坚持RAG轻量级方案;另一边是性能至上派,认为只有微调才能满足业务需求。  让我们跳出技术视角,用真实业务场景来理解这两种方案。
4/9/2025 11:59:29 AM
大数据AI智能圈

AI问答的核心!知识图谱:突破传统 RAG 的天花板

看似简单的 AI 问答系统,背后却隐藏着无数技术难题。  当我们询问"组件 A 与组件 B 有什么区别"这样的问题时,传统检索增强生成(RAG)系统往往会犯难。 它们就像只会做加法的计算器,遇到了需要乘除法的复杂方程...传统 RAG 的三大痛点传统 RAG 技术已成为 AI 应用的标配,但它面临三个根本性挑战:信息孤岛:文档被切分成互不相关的小块,丢失了上下文联系视野局限:只能基于文本相似度检索,无法理解概念间的逻辑关系推理能力缺失:无法像人类那样进行跨文档的综合分析例如,你问系统:"A组件和B组件有什么区别?
4/8/2025 3:45:00 AM
大数据AI智能圈

Dify+RAGFlow:1+1>2的混合架构,详细教程+实施案例

企业在落地 RAG 知识库时, Dify 和 RAGFlow 这两个开源框架应该选择哪个? 这也是我一直以来做RAG咨询时,经常被企业方问到的问题之一。 一般来说,如果需要处理特别复杂的文档和非结构化数据,RAGFlow 是优选。
4/7/2025 7:00:00 AM
韦东东

RAG实战|向量数据库LanceDB指南

LanceDB介绍LanceDB是一个开源的用 Rust 实现的向量数据库(),它的主要特点是:提供单机服务,可以直接嵌入到应用程序中支持多种向量索引算法,包括Flat、HNSW、IVF等。 支持全文检索,包括BM25、TF-IDF等。 支持多种向量相似度算法,包括Cosine、L2等。
4/3/2025 4:02:14 PM
周末程序猿

RAG分块优化之语义分块方法CrossFormer模型技术思路

笔者在前期文章中总结了RAG的分块《RAG常见13种分块策略大总结(一览表)》,本文介绍一个语义分段的工作,该工作解决的问题是文本语义分割,即将文档分割成多个具有连续语义的段落。 传统方法通常依赖于预处理文档以分段来解决输入长度限制问题,但这会导致段间关键语义信息的丢失。 RAG系统中的文本分块方法主要分为基于规则和基于LLM的方法。
4/2/2025 4:00:00 AM
余俊晖

大模型应用的能力分级

对大模型应用的能力分级就像给学生打分一样,能让我们更清楚它的本事有多大。 能力分级能帮我们设定目标,知道AI现在能干什么,未来还要学什么。 有了统一的分级方式,大家就能公平比较不同AI的水平,推动技术进步。
4/2/2025 1:25:00 AM
曹洪伟

SpringAI用嵌入模型操作向量数据库!

嵌入模型(Embedding Model)和向量数据库(Vector Database/Vector Store)是一对亲密无间的合作伙伴,也是 AI 技术栈中紧密关联的两大核心组件,两者的协同作用构成了现代语义搜索、推荐系统和 RAG(Retrieval Augmented Generation,检索增强生成)等应用的技术基础。 “PS:准确来说 Vector Database 和 Vector Store 不完全相同,前者主要用于“向量”数据的存储,而 Vector Store 是用于存储和检索向量数据的组件。 在 Spring AI 中,嵌入模型 API 和 Spring AI Model API 和嵌入模型的关系如下:系统整体交互流程如下:接下来我们使用以下技术:Spring AI阿里云文本嵌入模型 text-embedding-v3SimpleVectorStore(内存级别存储和检索向量数据组件)实现嵌入模型操作内存级别向量数据库的案例。
4/2/2025 12:00:00 AM
磊哥

RAG回答准确率暴涨300%!用Coze工作流进行数据结构化(附完整提示词)

前言在生成式人工智能(Generative AI)快速发展的当下,大语言模型(LLMs)的幻觉问题始终是制约其落地应用的关键瓶颈。 检索增强生成(RAG)技术通过引入外部知识库,将动态检索与生成能力结合,为解决这一难题提供了重要思路。 然而,RAG系统的核心性能——数据召回率,高度依赖于底层数据的质量与组织形式。
4/1/2025 10:01:42 AM
后端小肥肠

RAG(八)自反思检索增强生成--Self-RAG

大语言模型具有显著的能力,但它们常常因为仅依赖于其参数化知识而产生包含事实错误的响应。 传统的检索增强生成(Retrieval-Augmented Generation, RAG)方法虽然能减少这些问题,但是存在无差别地检索和结合固定数量的段落,没有考虑检索是否必要或检索结果的相关性,都会削弱语言模型的灵活性,或者导致无益的响应生成。 现在LLM RAG(检索增强)的技术方案已成为LLM在众多应用场景的主流。
4/1/2025 9:25:09 AM
Goldma

MCP 和 Function Calling:概念

随着人工智能的快速发展,大型语言模型(LLMs)逐渐深入到我们生活与工作的各个方面。 然而,尽管模型强大,但其能力仍存在局限性,比如在实时信息获取和复杂任务执行方面仍有不足。 RAG(检索增强生成)现在在企业的 AI 应用中使用很广泛,就是为了解决模型的信息不够实时,且没有垂直领域知识的问题。
4/1/2025 8:45:56 AM
不止dotNET

QA方法论在RAG中的应用

QA问答模型是一种自然语言处理(NLP)技术,旨在根据输入的问题自动提供准确的答案。 一、基本原理数据预处理首先需要对大量的文本数据进行收集、清洗等操作。 这些文本数据可以来自各种来源,如百科知识、新闻文章、学术文献等。
4/1/2025 2:22:00 AM
demo123456

大模型不再是路痴!空间推理的答案是RAG:旅游规划、附近推荐全解锁

近年来,大型语言模型(LLMs)的进展已经在机器学习(ML)的许多领域带来了变革,特别是在理解和生成类人文本方面,激发了人们通过直接从LLMs中提取空间知识来弥合空间问答与自然语言之间的差距,研究成果涵盖了广泛的应用,包括地理百科全书问答、地理定位和自动高精度地图生成等。 然而,当涉及到空间推理任务时,LLMs的表现却显得力不从心,甚至在处理基本的空间任务时也遇到困难,例如地理解析和理解相对空间关系。 这种差距在处理现实世界的空间推理任务时尤为明显,例如图1中所示的场景:图1 现实世界中空间推理问题示例。
3/28/2025 10:42:17 AM
新智元

从裁员到年薪百万:程序员靠RAG技术逆袭的“核心密码”

1.前言作为一名从业七年的程序员,最近听到很多程序员朋友都喜提了n 1裁员大礼包。 上周与老友聚会时,大家纷纷诉说着各自最近的遭遇,聚会气氛一度十分沉重。 老Z感叹:“公司决定将部分业务外包,结果我被列入了裁员名单。
3/28/2025 8:17:08 AM
后端小肥肠

RAG检索不过关?试试这些优化策略,精准度飙升!

近来,RAG成了大语言模型的“救命稻草”,可让大语言模型回答更准确、更靠谱。 可问题来了,很多 RAG 应用的检索系统还是有点“笨”:要么漏掉关键信息,要么抓回一堆无关紧要的“噪声”,搞得最终答案质量参差不齐。 那么,我们该怎么优化 RAG 的检索算法,让它既精准又高效呢?
3/27/2025 10:22:02 AM

RAG检索全攻略:Embedding与Rerank模型的终极指南

在构建基于检索增强生成(RAG)的系统时,Embedding Model和Rerank Model扮演着至关重要的角色。 比如你正在搭建一个智能搜索引擎,Embedding Model就像是帮你快速找到相关书籍的“图书管理员”,而Rerank Model则像是一位经验丰富的“资深书评人”,负责从一堆书里精准挑选出最符合你需求的那几本。 两者配合,就像一对完美搭档,确保RAG系统既能找到大量信息,又能精准提炼出最关键的内容。
3/26/2025 11:05:13 AM

腾讯云宣布上线DeepSeek最新版V3模型API接口

3月25日晚,腾讯云宣布率先上线DeepSeek-V3-0324版本模型的API接口,企业和开发者可以通过腾讯云直接调用这一最新版模型,获得稳定且优质的服务。 同时,腾讯云旗下大模型知识引擎也接入了新版DeepSeek-V3模型,通过平台内置的RAG(Retrieval-Augmented Generation)和工作流能力,用户能够快速搭建专属的AI应用。 腾讯云为用户提供了两种使用方式:一是直接在腾讯云官网调用API接口,二是基于大模型知识引擎内置的V3新模型快速搭建应用。
3/26/2025 9:18:00 AM
AI在线

RAG(七)Chain-of-Note:笔记链让检索增强型语言模型更强大!

现有的检索增强型语言模型(Retrieval-Augmented Language Models, RALMs)在处理外部知识时存在一定的局限性。 这些模型有时会因为检索到不相关或不可靠的信息而产生误导性的回答,或者在面对检索信息和模型内在知识的干扰时,无法正确选择使用哪一种知识。 此外,在检索信息不足或完全不存在的情况下,标准的RALMs可能会尝试生成一个答案,即使它们并不具备足够的信息来准确作答。
3/25/2025 10:41:06 AM
Goldma