全部版块 我的主页
论坛 数据科学与人工智能 人工智能
84 0
2025-11-13

“RAG是否已经过时?是不是已死?”

“Agentic RAG和Agent Memory到底有什么不同之处?”

“Agent Memory究竟是什么?它和RAG是替代关系吗?”

这篇文章是在解决上述疑问的过程中整理的,分为以下四个部分,希望能为大家带来新的启示~?

RAG->Agentic RAG->Agent Memory

以智能客服为例

这三者的关系

Agent Memory,并不简单

RAG->Agentic RAG->Agent Memory

  1. RAG 1.0:Na?ve RAG
  2. 首先,RAG并未消亡,**它是这一切的基础。**我们先回顾一下朴素RAG(Na?ve RAG):

    LLM的知识是陈旧的(训练完成时就确定了),它不了解具体某公司的内部文件。RAG就像是给它提供了一本参考书(例如公司知识库),通过检索外部信息来增强LLM的回答。

    ???? 工作流程如下:

    (线下)先把你的文档资料“存入”知识库(比如向量数据库)。
    (线上)用户提问 -> 系统必须先去知识库里搜相关资料(单步检索)-> 把“搜到的资料 + 用户问题”一起扔给 LLM -> LLM 参考着回答。

    这就好比开卷考试,LLM每回答一个问题时,都需要查阅一次资料。

    ???? 局限性:

    这种RAG是静态单步的。它有点笨拙,无论问题复杂与否,都只会查阅一次资料,并且是只读模式。它无法在对话中学习新知识。

  1. RAG 2.0:Agentic RAG
  2. Agentic RAG是对RAG的首次重大升级,核心在于**引入了自主智能体**。LLM不再是被动的,它变成了一个能够**主动思考、规划和使用工具**的研究助手。

    ???? 工作流程如下:

    1.用户提问(比如:“帮我查查苹果公司最近的财报,并总结下市场反应。”)
    2.Agent(LLM)开始思考和规划:“OK,这个任务得分两步:(1)搜财报;(2)搜市场反应。”
    3.Agent调用工具(比如搜索):执行“搜索苹果财报”。
    4.Agent反思:“嗯,财报拿到了。现在我需要执行第二步。”
    5.Agent再次调用工具:执行“搜索市场对苹果财报的反应”。
    6.最后,Agent 汇总所有(多轮检索到的)信息,生成最终答案。

    与RAG 1.0的核心区别在于:

    • RAG 1.0 是「必须搜索,且只搜索一次」。
    • Agentic RAG是「**Agent 自主决定是否搜索、搜索次数和使用什么工具进行搜索」。**这种检索方式是动态的、多步骤的。

    ???? 但是请注意:

    Agentic RAG主要解决的是读取问题。它使读取过程更加智能和动态,但本质上仍然是只读(知识库依然是离线预加载的)。它在对话中获取的新信息(如用户的偏好),一旦对话结束就会忘记。

  1. RAG 3.0?:Agent Memory
  2. 这时,就轮到Agent Memory登场了。

    如果说Agentic RAG是一位出色的研究助手(善于查找资料),那么Agent Memory则是一个能够**记住你、持续学习**的私人管家。

    那么,Agent Memory到底是什么呢?

    核心定义:Agent Memory(智能体记忆)是指智能体具备**调用工具读写外部知识库**的能力,使模型能够在对话中记住新的信息。

    ???? 与Agentic RAG最大的区别在于:

    写入能力。

    Agent Memory不仅有搜索工具(读取),还具备存储/写入/更新功能。

    ???? 工作流程如下:

    用户:“我下周要去上海出差,帮我规划下。”
    Agent(带记忆):
    (调用工具规划...)“好的,已规划。顺便问下,你有什么饮食偏好吗?”
    用户:“哦对了,我海鲜过敏,千万别安排海鲜。”
    Agent(调用写工具):
    (思考:“这是个重要信息!”)-> 调用WriteTool.store("用户偏好:海鲜过敏") -> 将这条信息存入外部记忆库。
    ???? 下次对话时
    用户: “帮我推荐几个北京的餐厅。”
    Agent(调用“读”工具):
    (思考:“我需要推荐餐厅,先查查用户有啥偏好?”)-> 调用SearchTool.search("用户偏好") -> 检索到“用户偏好:海鲜过敏”。
    Agent(生成): “好的,已为您筛选了北京的几家餐厅,并自动排除了所有海鲜餐厅。”

    通过动态的「读写」外部记忆,实现持续学习和个性化。它使LLM成为具有长期记忆的智能体,能够跨会话累积经验。

举例:一个智能客服的发展史

阶段一:Na?ve RAG(基础问答机器人)

在这个阶段,客服机器人像一个只会照着说明书读的员工。它的知识库是静态的(如产品手册、退货政策),并且总是先查阅资料再回答。

知识库(离线准备):

  • 文档 A:退货政策
  • 文档 B:产品说明书(型号 X、Y、Z)
  • 文档 C:发货时间表
用户提问:“你好,我想退货。”
???? Na?ve RAG的工作流:
1.(强制)检索:系统自动将“我想退货”作为关键词,去知识库里搜索。
2.找到内容:命中了“文档 A:退货政策”,检索到相关片段:“...如需退货,请在订单页面点击‘申请售后’,并在7天内寄回...”
3.生成答案:LLM将“检索到的内容”和“用户问题”结合起来。
4.客服回复:“您好,根据我们的政策,如需退货,请在订单页面点击‘申请售后’,并在7天内寄回...”

???? 局限性:

  • 答非所问:如果用户询问:“我的订单在哪儿?” LLM去静态知识库中查找,找不到实时物流信息,可能会回复一个关于标准发货时间的通用答案(如“我们通常在48小时内发货”),而不是用户想要的实时状态。
  • 无法处理多任务:用户问:“我的A订单什么状态?顺便帮我看看B产品是否有货?” 它会很困惑,可能只能回答第一个问题,或者两个都答不好。

阶段二:Agentic RAG(多功能工具助手)

在这个阶段,客服机器人升级成了一个聪明的助手。它拥有多种工具,并且能够思考使用哪个工具、甚至是否需要使用工具。但它的知识库本身仍然是只读的。

可用的工具:

KnowledgeBaseSearch
  • :搜索静态退货政策、产品说明书。
OrderTrackingAPI
  • :实时查询订单物流状态。
InventoryCheckAPI
  • :实时查询商品库存。
用户提问:“我的 A 订单到哪了?顺便帮我看看 B 产品有没有货?”
???? Agentic RAG 的工作流:
思考(LLM as Agent):“用户有两个问题。第一个是关于订单状态,我需要用OrderTrackingAPI。第二个是关于库存,我需要用
InventoryCheckAPI。”
(动态)调用工具 1:
Call: OrderTrackingAPI(order_id="A")
Return: {"status": "已签收", "time": "2025-11-10 09:30"}
(动态)调用工具 2:
Call: InventoryCheckAPI(product_id="B")
Return: {"stock": 120, "status": "有货"}
整合答案:LLM拿到了两份工具返回的实时数据。
客服回复:“您好,我帮您查到:1. 您的订单 A 已于今天上午 9:30 签收。2. 您查询的产品 B 目前有 120 件库存,可以下单。”

???? 局限性:

  • 没有记忆:如果用户接着说:“太好了。以后请叫我‘晨光’,并且我只在工作日收货。” 这个Agentic RAG客服会回应:“好的。” 但下次对话时它将完全忘记这些信息,因为它不具备写入新信息的能力。它只是一个出色的信息查询员。

阶段三:Agent Memory(专属私人管家)

这是目前最先进的阶段。客服机器人不仅具备Agentic RAG的所有能力(会使用工具),还额外获得了写入工具。它开始学习并记忆用户的偏好和历史。

可用的工具:

  • (读取)
    KnowledgeBaseSearch
  • (读取)
    OrderTrackingAPI
  • (读取)
    InventoryCheckAPI
  • (读/写入)
    MemoryTools.Search(user_id)
  • (读/写入)
    MemoryTools.Write(user_id, info)
【场景A】用户提出偏好
用户提问:“以后请叫我‘晨光’,并且我只在工作日收货。”
???? Agent Memory的工作流:
思考(LLM as Agent):“用户提出了两个关键偏好。我需要把它们‘记下来’。”
(动态)调用工具(写入记忆):
Call: MemoryTools.Write(user_id="123", info="Nickname: 晨光")
Call: MemoryTools.Write(user_id="123", info="DeliveryPreference: workdays_only")
客服回复:“好的,晨光。我记住了,以后会尽量安排在工作日为您配送。”
【场景B】几天后的下一次对话
用户提问:“你好,帮我查下我上次买的那个耳机型号。”
???? Agent Memory的工作流:
思考(LLM as Agent):“用户开始了新对话。我应该先‘回忆’一下关于她的信息。”
(动态)调用工具(读取记忆):
Call: MemoryTools.Search(user_id="123")
Return: ["Nickname: 晨光", "DeliveryPreference: workdays_only"]
(动态)调用工具(读取订单历史):
Call: OrderTrackingAPI(user_id="123", history_limit=1, type="headphones")
整合答案:LLM拿到了“记忆”和“订单数据”。
客服回复:“您好,晨光!我查到您上次购买的耳机型号是M-Tech降噪耳机Pro。需要我为您做些什么吗?”

核心问题:三者到底是什么关系?

终于可以回答开头的问题了。

  1. RAG 死了吗?

没有。RAG 是基石。Agentic RAG 将 RAG 转变为它工具箱里一个(更为智能化的)工具;Agent Memory 则在 Agentic RAG 的基础上,又增加了一个写入功能。

2、Agentic RAG vs Agent Memory?

Agentic RAG = 动态只读。关键在于代理如何更智能地检索信息。

Agent Memory = 动态读取+动态写入。重点在代理如何管理信息。

???? 结论:Agent Memory 吸收 RAG 能力,将其作为记忆读写的部分工具使用,但不会废弃 RAG,特别是在涉及“大规模文档检索”或“高密度信息”的企业场景下,RAG 的向量搜索仍然是不可或缺的底层能力。

Agent Memory,并非那么简单

那 Agent Memory 不就是增加一个写入功能吗?????

其实,真正的挑战不在于执行写入这一动作本身,而是在于写入后带来的一整套复杂的记忆管理难题。

  1. 决定记什么——写入策略
  2. 难点:“你好”、“哈哈”、“嗯”这类无关紧要的词语不能全记录下来,如果无序地保存一切,会导致记忆冗余和上下文污染。

    ???? 必须有智能触发式写入。例如,代理必须学会判断什么是重要事实(如“海鲜过敏”、“称呼:晨光”)或者采用摘要写入机制,只存储对话摘要,而非全部记录。

  3. 决定怎么读——读取策略
  4. 难点:用户的记忆库逐渐增大,当用户问“老样子”时,代理如何在成千上万条记忆中准确找出“老样子”指的是“拿铁少冰”还是“周五下午开会”?

    ???? 这需要高效的搜索。例如结合向量语义检索、重要性评分、新近度评分等。

    斯坦福的生成式代理研究提出了「新近度+重要性+相关性」的三重检索评分机制。

  5. 决定何时忘——遗忘策略
  6. 难点:一个只记不忘的代理是灾难性的。如果用户搬家了,而代理仍记得旧地址怎么办?如果信息冲突了怎么办?

    ???? 必须有适当的遗忘机制。常见的包括:

    • 时间衰减:临时信息(如验证码)到期自动删除。
    • 使用频率:长期不用的记忆被淘汰(类似 LRU 策略)。
    • 重要度:模型评估为不重要的信息被丢弃。
    • 人工干预:允许用户“一键忘记”,以满足 GDPR 等隐私法规。
  7. 隐私与安全——记忆的保险箱
  8. 难点:记住“晨光”是小事,但如果代理记住了用户的身份证号、银行卡信息、家庭住址等呢?这带来了巨大的隐私合规风险和记忆混淆的可能性。

    ???? 这需要严格的权限控制、数据加密以及用户授权机制。

总结一下~从 Agentic RAG 到 Agent Memory,最大的挑战是从一个无状态的查询工具进化为有状态的持久化系统。该系统必须具备一套完整的写-读-忘循环策略,以确保记忆是高效、准确、安全且有用的。

总结:RAG 在发展,而非消亡

现在,我们可以清楚地看到这条路径:

  • RAG 1.0 (Na?ve RAG):静态的开卷考试。解决了 LLM 的知识局限性(只读)。
  • RAG 2.0 (Agentic RAG):聪明的研究助手。解决了 RAG 1.0 检索过程过于死板的问题(智能读取)。
  • RAG 3.0 (Agent Memory):会学习的私人管家。解决了代理无法记住新信息、实现个性化的问题(智能读取 + 智能写入)。

因此,RAG 远未“消亡”,它们三者将共同存在,构成更强大的「知识+记忆+推理」一体化系统,支持代理走得更远。

AI 时代,未来的就业机会在哪里?

答案就藏在大模型的浪潮里。从 ChatGPT、DeepSeek 等日常工具到自然语言处理、计算机视觉、多模态等核心领域,技术普惠化、应用垂直化与生态开源化正催生 Prompt 工程师、自然语言处理工程师、计算机视觉工程师、大模型算法工程师、AI 应用产品经理等 AI 岗位。

掌握大模型技能,就是把握高薪未来。

那么,普通人如何抓住大模型的机遇?

AI 技术的普及对个人能力提出了新的要求,在 AI 时代,持续学习和适应新技术变得尤为重要。无论是企业还是个人,都需要不断更新知识体系,提升与 AI 协作的能力,以适应不断变化的工作环境。

因此,这里为大家整理了一份资料:

《2025最新大模型全套学习资源》

包括 2025 最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题等,带你从零基础入门到精通,快速掌握大模型技术!

由于篇幅有限,有需要的小伙伴可以扫码获取!

  1. 成长路线图 & 学习规划
  2. 要学习一门新技术,作为新手一定要先了解成长路线图,方向不对,努力白费。这里,我们为新手和希望进一步提升的专业人士准备了一份详细的成长路线图和规划。

  3. 大模型经典 PDF 书籍
  4. 书籍和学习文档资料是学习大模型过程中不可或缺的。我们精心挑选了一系列深入探讨大模型技术的书籍和学习文档,这些资料由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

    (书籍含电子版 PDF)

3. 大模型视频教程
对于许多自学或没有基础的同学来说,书籍这类纯文字的学习材料可能会显得较为复杂难以理解。因此,我们提供了丰富的大模型视频课程,以生动、直观的形式展现技术概念,帮助你更快捷、轻松地掌握核心知识。

4. 大模型项目实战
学以致用,在你的理论知识积累到一定水平后,需要通过项目实践来检验和巩固所学内容,同时为求职和职业发展奠定坚实的基础。

5. 大模型行业报告
行业分析主要涉及对不同行业的现状、趋势、问题及机会进行全面的调查与评估,以了解哪些领域更适合引入大模型的技术应用,并在哪些方面能够发挥其优势。

6. 大模型面试题
面试不仅是技术实力的比拼,还需要充分准备。当你已经掌握了大模型技术后,需要开始准备面试,我们将提供精心编排的大模型面试题目库,覆盖当前面试中可能出现的各种技术问题,使你在面试中更加从容。

为什么大家都在学AI大模型?
随着AI技术的进步,企业对人才的需求从单一的技术背景转向了“AI+行业”的复合型背景。例如金融+AI、制造+AI、医疗+AI等跨领域的职位薪酬增长达到30%-50%。
同时,许多人在面临优化裁员的情况,近期科技巨头英特尔宣布裁员2万人,传统岗位持续减少,因此转行到AI领域成为必然趋势!

这些资料有用吗?
这套资料由我们与鲁为民博士(清华大学学士和加州理工学院博士)共同整理。鲁为民现任上海殷泊信息科技CEO,他创立的MoPaaS云平台获得Forrester全球‘强劲表现者’认证,服务了包括航天科工、国家电网在内的1000多家企业,并以第一作者身份在IEEE Transactions上发表了50多篇论文,获得了NASA JPL火星探测系统强化学习专利等35项中美专利。此套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔开发。
资料内容包含了从基础到进阶的各种视频教程和实战项目,无论是初学者还是具有一定技术基础的技术人员,这些资料都能帮助你提升薪资待遇,转行至大模型岗位。

大模型全套学习资料已整理打包,有需要的朋友可以

微信扫描下方CSDN官方认证二维码
,免费领取【保证100%免费】

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群