当前位置: 首页 > news >正文

假如LLM无限上下文了,RAG还有意义吗?

最近一年,LLM的上下文长度有了非常长的扩展,从早期的4096个token到最近kimi chat的200万token,因此很多人就认为LLM不需要RAG了。实际上这个想法其实是错误的。

RAG的本质是包含两个步骤,一是召回(检索),二是推理。。大部分人以为RAG只是服务于私有知识库,然而RAG的应用是可以很广泛的。例如我们设计一个带感情色彩的聊天机器人,这个聊天机器人回答的语气的示例(也就是few shot learning)是可以通过RAG来召回的,在这个例子中召回的是示例。再比如,我们让LLM使用外部工具,外部工具可能特别的多,那么可以让RAG来帮忙对工具进行初步的召回和检索,原因是过多的信息(例如塞入全部工具的描述)会增加LLM的失误率,使得容错率降低。

最后,我们再以langchain的daniel在一个月前的分享来进一步说明为什么现在的长下文的LLM无法替代RAG。

大家可能知道有一种实验叫做大海捞针实验(Needle in a haystack),目的是测试LLM在长下文中的检索和推理能力。这个实验的大致思路如下:

  • 在一段长文本(大海)中随机插入一些短文本(针)。
  • 将这段文本输入给LLM,向LLM提问让它捞出来这些针。

正如我们前面说的,RAG是包含了召回(检索)和推理两部分。因此在大海捞针实验中,需要考察检索的准确率和推理的准确率。

Langchain基于GPT-4做了如下的实验,并得到了下面两个图。

首先看左边这个图,左边的图横坐标是有多少根“针”,纵坐标是查全率。由于有检索和推理两个任务,因此他们设计了两种问题。一个问题是问LLM这段文本中,针在哪里,也就是检索出针。第二个问题是推理问题,不仅要找到针,还需要对针进行推理,例如让LLM告诉我们这些针的第一个字母是什么。

左边的图告诉我们两个事实,首先绿色的柱子是第一个问题,红色的柱子是第二个问题。明显问题二的查全率低于问题一,这说明推理比检索要难,这个很好理解,毕竟推理不仅要检索出来,要需要基于检索结果做一些推理。其次,随着插入大海中针的数量的增加,查全率在降低。

接着我们看第二个图,第二个图横坐标是输入LLM的上下文,也就是“海”的长度,纵坐标是10个针的位置,越上面的针表示在上下文的前面,越下面的针表示在上下文的后面。这个图同样告诉我们两个事实。事实一是随着上下文长度的增加,查全率在不断降低。事实二是靠近上下文尾巴的针更不容易被遗漏,越靠前的针越容易被遗漏。

实际上,论文《Attention Sorting Combats Recency Bias In Long Context Language Models》提出了一个观点。在使用下一个token预测这种方式训练的时候,实际上存在偏差(bias),因为我们训练语料中,下一个token预测的真实值大部分和附近的token有关,这导致LLM会倾向于更多的关注最近(Recency)的token,而容易忽略前面的token,论文中将这种现象称为Recency Bias。因此,Recency Bias可以在一定程度上解释上面两个图的结果。

综上,目前LLM在长文本的语境中做检索加推理还有很大的局限性,这种局限性甚至可能是由于下一个token预测这种训练范式导致的,因此RAG并没有被替代掉。

最后,我认为应该将RAG视作一种LLM可以使用的外部工具,在能使用外部工具的前提下,肯定是要优先使用这些工具,好比让人查询文档中的相关内容,人也会根据结构化的标题以及ctrl+f功能进行快速的检索和定位(也就是借助外部工具),而不是从头到尾通读整篇文档。

学AI大模型的正确顺序,千万不要搞错了

🤔2026年AI风口已来!各行各业的AI渗透肉眼可见,超多公司要么转型做AI相关产品,要么高薪挖AI技术人才,机遇直接摆在眼前!

有往AI方向发展,或者本身有后端编程基础的朋友,直接冲AI大模型应用开发转岗超合适!

就算暂时不打算转岗,了解大模型、RAG、Prompt、Agent这些热门概念,能上手做简单项目,也绝对是求职加分王🔋

📝给大家整理了超全最新的AI大模型应用开发学习清单和资料,手把手帮你快速入门!👇👇

学习路线:

✅大模型基础认知—大模型核心原理、发展历程、主流模型(GPT、文心一言等)特点解析
✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑
✅开发基础能力—Python进阶、API接口调用、大模型开发框架(LangChain等)实操
✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用
✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代
✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经

以上6大模块,看似清晰好上手,实则每个部分都有扎实的核心内容需要吃透!

我把大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

http://www.jsqmd.com/news/701202/

相关文章:

  • csp信奥赛C++高频考点专项训练之贪心算法 --【删数问题】:删数问题
  • 基于openEuler系统部署MySQL数据库主从
  • 【VSCode 2026工业协议解析插件终极指南】:覆盖Modbus/TCP、OPC UA、CANopen等12类协议,实测解析速度提升370%
  • 微软FinnTS:基于AutoML与LLM Agent的自动化时间序列预测框架
  • Java应用运行时安全防护:基于RASP技术的无侵入探针实战
  • VSCode AI配置速度慢?实测数据:正确配置后首响应≤832ms,错误配置平均延迟4.7s——附性能压测报告
  • 反射驱动的元编程范式跃迁,深度对比C++20/23/26三版本实现差异与面试必答逻辑链
  • 机器学习数据准备框架:从原理到工程实践
  • SuperDesign:在IDE中用AI自然语言生成UI设计与代码
  • 多智能体LLM推理实战:从思维链到自适应思维图
  • Empire渗透测试框架:无文件攻击与C2通信的经典实现与防御启示
  • 分布式任务编排系统OpenClaw:从核心架构到生产实践的深度解析
  • 3步搞定B站字幕下载转换:从零开始获取离线字幕资源
  • 2026年评价高的塑粉稳定供货厂家推荐 - 行业平台推荐
  • Unity UI框架实战:巧用快捷键与层级管理,解决弹窗叠加和界面切换的坑
  • Marksman:深度集成开发工作流的智能文档生成与管理工具实践
  • 如何快速上手KKManager:Illusion游戏模组管理的终极解决方案
  • 【AI Agent实战】8000字源码分析,AI帮我2小时吃透——学技术文章的新姿势
  • 机器学习项目协作平台选型与实战指南
  • ARM CP15协处理器架构与缓存控制技术详解
  • ELK+Kafka+Zookeeper日志收集系统
  • 2026气动设备回收标杆名录:风冷系统回收、食品车间回收、食品车间拆除、CNC铣床回收、PLC伺服设备回收、SMC气动设备回收选择指南 - 优质品牌商家
  • 基于DeepChat框架构建AI对话应用:从原理到实践
  • 一种通用的前端复刻思路:提取 UI 结构数据,交给 AI 生成代码
  • 深度学习目标识别:从分类到检测的完整指南
  • csp信奥赛C++高频考点专项训练之贪心算法 --【删数问题】:删数问题2
  • 2026年上海拼多多客服外包选哪家:上海视频号客服外包、专席客服外包、临时客服外包、全包客服外包、售前客服外包选择指南 - 优质品牌商家
  • RAG 实战:给 AI 接上私有知识库的完整方案
  • 大模型API缓存的底层原理:从显存到网关
  • Python机器学习数据预处理实战与Scikit-Learn技巧