当前位置: 首页 > news >正文

什么是粗排和精排

在 RAG、推荐系统、搜索引擎等场景中,粗排(Coarse-grained Ranking)精排(Fine-grained Ranking)是一套 **“先海选、再精选”** 的两级检索排序策略,核心目的是在保证检索效率的前提下,大幅提升结果的精准度。

简单类比:

  • 粗排 = 简历初筛:HR 快速扫一遍简历,把 “学历、工作年限” 达标的候选人挑出来,不纠结细节;
  • 精排 = 复试面试:对初筛通过的候选人,深入考察专业技能、项目经验,最终确定录用名单。

在 RAG 的向量检索流程中,这套策略尤其适合海量数据场景(比如向量库中有百万 / 千万级文档片段),直接全局精排会严重拖慢速度,两级排序能兼顾 “快” 和 “准”。

一、粗排:快速筛选,缩小范围

1. 核心目标

全量向量数据中,快速筛选出与问题 “可能相关” 的候选集,过滤掉明显不相关的数据,减少后续精排的计算量。

2. 技术特点
  • 计算速度快:采用轻量级模型 / 规则,不追求高精度,只做 “快速过滤”;
    • 向量检索中:常用近似最近邻(ANN)算法(比如 Milvus 的 IVF_FLAT、HNSW),牺牲一点点精度换速度;
    • 其他场景:也可以用关键词匹配、标签过滤等简单规则(比如用户问 Spark,直接过滤掉 Hadoop 相关文档)。
  • 召回率优先:粗排要保证 “不漏掉潜在相关数据”,所以筛选条件比较宽松,候选集的数量通常是最终需要结果的10~100 倍(比如要最终返回 10 条结果,粗排先选出 200 条候选)。
3. 在 RAG 中的应用示例

假设 Milvus 中有 100 万条技术文档向量,用户提问 “Spark 宽依赖和窄依赖的区别”:

  • 粗排步骤:用问题向量通过 HNSW 算法检索,快速返回200 条候选片段(耗时毫秒级),这些片段都和 Spark 相关,但可能包含部署、调优、依赖关系等不同内容。

二、精排:精准排序,择优输出

1. 核心目标

对粗排筛选出的候选集,进行精细化相关性计算,最终按 “与问题的匹配度” 排序,选出最相关的 Top-K 结果。

2. 技术特点
  • 计算精度高:采用更复杂的模型 / 算法,深入计算 “问题与候选片段” 的语义相关性;
    • 向量检索中:常用余弦相似度、点积等精准度量方式,或引入交叉编码器(Cross Encoder)—— 专门用于计算 “文本对” 的相关性得分,比单向 Embedding 更精准;
    • 其他场景:也可以用深度学习模型(如 BERT 变体),建模问题与文本的深层语义关联。
  • 效率要求低:因为候选集已经被粗排缩小,所以即使精排算法复杂,整体耗时也可控。
3. 在 RAG 中的应用示例

对粗排选出的 200 条 Spark 相关候选片段:

  • 精排步骤 1:用 Cross Encoder 计算 “用户问题 ↔ 每个候选片段” 的相关性得分(置信度);
  • 精排步骤 2:按得分从高到低排序,选出 Top-5 最相关的片段(比如直接讲解依赖关系的文档);
  • 最终:把这 5 条片段传给大模型生成答案。

三、粗排 + 精排的完整流程(RAG 场景)

用户提问 → 问题向量化 → 粗排(ANN 检索全量数据,选出 N 条候选) → 精排(Cross Encoder 计算相关性,选出 K 条 Top 结果) → 传给大模型生成答案
阶段核心算法目标速度精度
粗排近似最近邻(HNSW/IVF)、关键词过滤快速召回候选集快(毫秒级)较低
精排余弦相似度、交叉编码器(Cross Encoder)精准排序候选集中等(百毫秒级)较高

四、为什么需要两级排序?

  • 只做粗排:速度快,但结果精度低,可能混入很多弱相关数据,影响 RAG 效果;
  • 只做精排:对全量数据逐一计算精准相似度,在海量数据下速度极慢(比如千万级数据需要几秒甚至几十秒),无法满足实时检索需求;
  • 粗排 + 精排:平衡了效率精度,是海量数据场景下的最优解。

五、实操小技巧(LangChain + Milvus 实现粗排 + 精排)

  1. 粗排:用 Milvus 的 HNSW 索引做近似检索,获取候选集;
  2. 精排:用 LangChain 的CrossEncoderReranker对候选集重新排序。
from langchain.retrievers import ContextualCompressionRetriever from langchain.retrievers.document_compressors import CrossEncoderReranker from langchain_community.cross_encoders import HuggingFaceCrossEncoder from langchain_community.vectorstores import Milvus # 1. 初始化 Milvus 粗排检索器 vector_db = Milvus(...) coarse_retriever = vector_db.as_retriever(search_kwargs={"k": 200}) # 粗排召回 200 条 # 2. 初始化精排重排器(用 HuggingFace 的 Cross Encoder 模型) model = HuggingFaceCrossEncoder(model_name="BAAI/bge-reranker-base") compressor = CrossEncoderReranker(model=model, top_n=5) # 精排选 Top-5 # 3. 组合粗排+精排 compression_retriever = ContextualCompressionRetriever( base_retriever=coarse_retriever, base_compressor=compressor ) # 4. 检索 docs = compression_retriever.get_relevant_documents("Spark 宽依赖和窄依赖的区别")

http://www.jsqmd.com/news/249347/

相关文章:

  • Google Ads花钱没单?9大常见设置错误与修复指南
  • 全国冠军代言资源平台排名
  • 手把手教你8款AI论文工具实操:知网维普查重一把过无AIGC痕迹
  • EasyGBS算法算力平台在智慧安防视频监控中的应用实践
  • 大模型强化学习训练全攻略:从RLHF到RLVR,算法、框架与性能优化详解
  • 领航技术股份-水浸传感器哪家好
  • EasyGBS智能化视频监控助力企业安全运营
  • 靠谱的厌氧池清淤哪家妙
  • WHAT - Vercel react-best-practices 系列(一)
  • 数据合规律师必考七大证书:全面提升职场竞争力
  • AI大模型全景指南,从小白到程序员的完全学习手册
  • 救命!挖到就业黄金赛道!2025 网安缺口 327 万,零基础入门到精通,收藏即通关!
  • 携手订单日记,圣力树开启智能升级之路
  • 国家战略急需!网安工程师年薪真能过百万?好不好入行一篇说透!
  • 基于社区宠物管理
  • 8个降AI率工具推荐!研究生高效降AIGC神器合集
  • 基于ASP.NET及HTML的高校官网设计
  • 网安冰火两重天:480 万缺口下,裁员潮 + 一线饱和 + 二三线降薪 30%,核心缺高端实战人才!
  • 告别文献 “乱炖”!宏智树 AI 手把手教你写出有灵魂的文献综述
  • UE5 C++(32):进度条 Progress 的实现
  • 【拯救HMI】HMI国际化设计:多语言界面的十大注意事项
  • AI 写论文哪个软件最好?实测宏智树 AI:毕业论文的 “学术增效神器”
  • 【拯救HMI】HMI容错设计:如何减少操作失误并快速纠错?
  • e算商城域名切换公告
  • 宏智树 AI:ChatGPT 学术版驱动的 AI5.0 学术创作全生态解决方案
  • 今天必须跟你们聊聊GLM-Image这事儿
  • 5 款 AI 写论文哪个好?实测宏智树 AI:毕业论文的 “学术全能王”
  • 9 款 AI 写论文哪个好?实测揭秘!宏智树 AI 凭硬核实力登顶
  • 2026年中国就业格局:在技术革命与结构重塑中破局
  • 国家急缺 327 万 +!网安工程师年薪过百万不是梦,零基础适配分阶段学习(附证书清单)!