阿里面试官问:Embedding怎么评估?
RAG 高频判断题
Embedding 怎么评估,光看 MTEB 榜单行不行?别被榜单骗了:50 个真实问题,往往比一个公开排名更能说明企业 RAG 到底靠不靠谱。
先把术语翻成人话
RAG:先找资料再回答
embedding:文字变数字,看像不像
query:用户真实问题
gold doc:标准答案资料
hit@10/recall@10:找没找到
MRR:排第几
一、面试现场
面试官提问
“你们 RAG 用的什么 embedding?怎么评估它好不好?”
阿里巴巴 AI 平台一面。简历上写了"基于内部知识库做了一套问答 Copilot",面试官没绕弯子,直接抛过来。这一题表面问的是模型选型,实际考的是你能不能把"把问题和文档变成向量"这一步,放回真实业务里判断。
**直接回答:先拿 50 个真实用户问题,再为每个问题标出"标准应该找到哪份资料"。然后看系统前 10 个候选里有没有这份资料,以及它排在第几位。**专业一点说,这就是用业务 query + gold doc 跑hit@k/recall@k和MRR。我的判断是:没有自家测试集的 embedding 选型,本质上只是换模型抽盲盒。
二、大多数人怎么答的
典型翻车回答
“看 MTEB 榜单选 top-3,再换个更大的模型,检索效果就上去了。”
这个回答有一点对:MTEB能做第一轮粗筛,把候选模型从几十个砍到 3-5 个。但榜单测的是"通用考试题",你的系统面对的是"公司自己的题":内部工单、合同、代码库、客服记录。我见过公开榜单靠前的模型换到法务 PDF 上,前 10 个候选里的命中率反而低 12 个点。
"换更大的模型"也一样。截至 2026-05-02,OpenAI text-embedding-3-large、Voyage-4-large、BAAI/bge-m3在不同领域上的胜负关系是交叉的。把"大 = 准"当标准,等于跳过了最关键的一步:它在你的资料库里,到底找不找得到正确资料。
三、深度解析
把这题翻成人话:用户用自己的话提问时,系统能不能把正确资料找出来?****我认为真正的分水岭不是你报出哪个模型名,而是你能不能拿出一张"哪些问题找得到、哪些问题找不到"的失败样例表。我会先看找不找得到,再看排得靠不靠前,最后看失败集中在哪类问题上。
判断一:用真实问题,不用考试题
MTEB/C-MTEB是公开考试题;你的业务问题更像"报销限额是多少",标准答案在《差旅报销管理办法》第三条。关键在于:评估对象必须是"真实用户问题 + 你库里的正确资料"这对数据。50 条高频问题加专家标注就够起步,不要一上来追求 5000 条。
判断二:先看找不找得到,再看排第几
单个标准答案的场景,先看hit@k:前 k 个候选里有没有命中那条正确资料;多个标准答案的场景,再看recall@k:正确资料被找回了多少比例。我认为先用hit@10/recall@10判断"找不找得到",再用MRR判断"排得靠不靠前"。不要只看 cosine 均值,它更像平均相似度,不能直接说明用户能不能拿到正确资料。
判断三:要覆盖真实麻烦问题
企业 RAG 最容易翻车的,不是标准问法,而是五类麻烦问题:同一句话的不同说法、公司内部缩写、中英混着问、订单号/错误码这类精确字符、以及很长很口语的问题。这些东西在公开榜单里不一定多,但在你的知识库里可能天天出现。
判断四:失败样例的 trace 比平均分更重要
平均分会把问题盖住。工程动作:给每条问题打一个类型标签,跑完后按标签分组看recall@10;再把失败问题单独拿出来,看是资料切得不对、模型不认识内部词,还是标准答案本身标错了。这套数据沉淀下来就是回归集,每次换模型、换切分策略都重跑。
四、面试官追问链
追问 1
“如果 recall@10 高但答案仍然差,是 embedding 的问题吗?”
大概率不是。前 10 个候选里已有正确资料,说明"找资料"不算坏;问题多半在后面:重排没把它推到前 3,提示词没要求优先看高排名片段,或引用被裁断。处理顺序是:先看重排,再调提示词,最后才动 embedding。
追问 2
“怎么用 50 条 query 做一个最小 embedding eval?”
五步就够:抽 50 条真实问题;标出每题应该找到的 1-3 篇资料;跑两个候选模型;看前 5 / 前 10 是否命中、排第几;再按问题类型分组。50 条不是上限,是起跑线,跑通后再扩到 200。
追问 3
“为什么领域术语多的系统可能需要 hybrid search 而不是只换 embedding?”
因为内部缩写、产品型号、订单号不像自然语言,更像精确字符。比如SKU-X1932、ORD20260418,关键词检索反而更可靠。更值得做的是:语义搜索找一批,关键词搜索找一批,合并后再重排。
五、最小 eval 长什么样
把方法落到表上,就是每个问题都有"问题类型"和"标准资料":前者用于分组诊断,后者用于判断系统到底找没找到。
| 业务 query | 类型 | gold doc |
|---|---|---|
| 差旅报销限额是多少 | 同义 | EXP-03 |
| SKU-X1932 下架了吗 | 术语 | TKT-1102 |
| LOGISTICS_TIMEOUT 怎么处理 | 代码 | LOG-07 |
| 上周工单怎么还没回 | 长问法 | FAQ-11 |
跑完后不要只看平均分,按类型聚合,弱在哪一眼就能看出来:
| Query 类型 | Recall | MRR | 诊断 |
|---|---|---|---|
| 同义改写 | 0.92 | 0.71 | 先不动 |
| 缩写术语 | 0.34 | 0.18 | 加BM25 |
| 跨语言 | 0.61 | 0.42 | 看样例 |
| 数字代码 | 0.28 | 0.14 | 关键词兜底 |
| 长 query | 0.78 | 0.55 | 加 rerank |
这张表读完,结论不是"换更大的 embedding",而是:缩写与数字代码加关键词兜底,长问题加重排,同义改写先不动。
↳ 复盘数字
匿名项目复盘:仅换 embedding,整体recall@10从0.74 → 0.78;加关键词兜底 + 重排后,整体0.74 → 0.91,缩写类0.34 → 0.82。这不是公开基准,只说明诊断方向。
我的判断
关键在于先把评估闭环跑通——同一份 200 条样本上跑过 3 个 embedding,比只看 MTEB 排行榜有用得多。我的优先顺序是:公开榜单粗筛,业务测试集定最终选择。
六、本课总结
一句话总结
Embedding 评估不靠榜单也不靠感觉,先拿 50 条真实问题标出标准资料,再看系统能不能找得到、排得靠不靠前。
面试锦囊
先说:评估必须用真实问题 + 标准资料,MTEB只做粗筛。再说:先看前 10 个候选里有没有正确资料,再看它排第几,并按问题类型分组。最后补:内部术语、错误码、订单号这类场景要关键词兜底 + 重排,不要只换更大的 embedding。
判断 checklist
□ 有没有 50 条真实问题和标准资料?
□ 有没有按同义、缩写、跨语、数字、长句分组?
□ 有没有同时看命中、排序和失败样例?
□ 有没有关键词兜底 + 重排的回退路径?
别再踩的坑
□ 直接拿MTEBtop-1 上线。
□ 只看平均分,不按问题类型拆开。
□ 一遇到差就换模型,不先看重排、提示词和引用。
学AI大模型的正确顺序,千万不要搞错了
🤔2026年AI风口已来!各行各业的AI渗透肉眼可见,超多公司要么转型做AI相关产品,要么高薪挖AI技术人才,机遇直接摆在眼前!
有往AI方向发展,或者本身有后端编程基础的朋友,直接冲AI大模型应用开发转岗超合适!
就算暂时不打算转岗,了解大模型、RAG、Prompt、Agent这些热门概念,能上手做简单项目,也绝对是求职加分王🔋
📝给大家整理了超全最新的AI大模型应用开发学习清单和资料,手把手帮你快速入门!👇👇
学习路线:
✅大模型基础认知—大模型核心原理、发展历程、主流模型(GPT、文心一言等)特点解析
✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑
✅开发基础能力—Python进阶、API接口调用、大模型开发框架(LangChain等)实操
✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用
✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代
✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经
以上6大模块,看似清晰好上手,实则每个部分都有扎实的核心内容需要吃透!
我把大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~
