Shopee大模型面试岗,我慌了!!
上周面Shopee的Agent开发实习二面,面完我整个人是懵的。不是因为面试官刁难,而是问的问题刚好卡在我知识的“自以为懂”和“真懂”之间。很多概念我平时挂在嘴边,但被追问到底层实现、管理细节的时候,就露馅了。我把这10个问题复盘出来,顺带画几张图帮你们理解——说实话,有些东西画成图之后,我自己才真正想通。
1. Agent跟LLM的区别?
面试官一上来就问这个,我心想:简单。张嘴就说“Agent能调用工具、有记忆、能规划,LLM只是文本生成”。结果他追问:“那如果一个LLM接了个计算器,是不是就成Agent了?”
我卡住了。
后来我想明白了,LLM和Agent不是互斥的,Agent是LLM的一种使用范式。LLM只负责推理和生成,Agent则是在LLM外面包了一层控制逻辑——让LLM在循环里做决策、调用工具、观察结果、再决策。没有这层循环和工具编排,LLM就是个超级大脑但没手没脚。图1画出了这个关系。
图1:LLM与Agent的关系
Agent = LLM + 工具 + 记忆 + 规划能力。LLM是核心引擎,但不是全部。
2. Agent结构包含哪些部分?
这个问题我答得还行,说了四个模块:大脑(LLM)、规划(Planning)、记忆(Memory)、工具使用(Tool use)。但我漏了一个关键点——**行动(Action)**模块。Agent得有个执行层,把LLM输出的指令翻译成实际调用,比如调用API、操作数据库。不然光规划不执行,那是纸上谈兵。
后来我画了张结构图(图2),把Action层显式画进去,整个流程就通透了
图2:Agent内部结构
3. 听说过Agent loop吗?
我听说过,但没深究。面试官让我解释,我说就是“感知-思考-行动”的循环。他说太抽象了,让我举个具体例子。
实际上Agent loop就是Agent运行时的控制流。比如ReAct模式:LLM输出一个Thought(思考),然后一个Action(动作),工具返回Observation(观察),再进入下一轮Thought。这个loop会一直跑,直到LLM输出一个Finish动作。图3画了个单的loop流程。
图3:Agent Loop流程
我面试时没说出来的是,loop里还得有终止条件、超时控制、错误重试——这些工程细节面试官很看重。
4. MCP是什么?如果MCP特别多的话要怎么管理?
MCP(Model Context Protocol)我倒是知道,Anthropic推的一个标准协议,让Agent和外部工具/数据源以统一方式交互。但是“特别多怎么管理”这个问题,我回答得很虚。
面试官提示:可以用注册中心、命名空间、版本控制。我后来琢磨,其实就跟微服务治理一个思路——工具多了得有服务发现、负载均衡、权限控制。可以搞一个MCP网关,统一鉴限流、路由。图4示意了一下。
图4:MCP管理架构
这种问题考的不是协议本身,而是分布式系统的工程素养。
5. Agent是怎么实现上下文记忆的?
我说了两种:短期记忆(把历史对话塞进prompt)和长期记忆(用向量数据库做检索)。他接着问:“短期记忆窗口不够怎么办?”
我提到了滑动窗口、摘要压缩。但漏了一个关键点:记忆不是简单的存储,而是要有检索和更新机制。比如MemGPT那种,把记忆分层——核心事实存长期记忆,近期对话存短期,通过一个记忆管理器两层间交换信息。图5画了这种分层记忆。
图5:分层记忆机制
说实话,这块我还在补课。
6. tool层怎么定义的?tool层具体在agent运行是怎么被调用的?
我答:tool层就是一组函数定义,包括函数名、描述、参数schema。Agent运行时会根据用户意图,让LLM输出一个函数调用请求,然后tool层去执行。
他追问:“LLM输出的函数调用是字符串,你怎么把它映射到真实的函数执行?”
这里我卡了。其实需要一层函数注册表,把函数名映射到实际的可调用对象。LLM输出JSON格式的function_call,解析后查表,然后调用。图6画了调用链。
图6:Tool调用流程
如果工具执行失败,还要把错误信息返回给LLM,让它重新决策。这个闭环很重要。
7. 向量数据库是什么?跟传统数据库有什么区别?做demo用过什么主流向量数据库?
向量数据库存的是高维向量,用来做相似性检索。跟传统数据库的区别,我答了索引方式不同(向量索引 vs B-tree),查询方式不同(ANN vs 精确查询)。
demo我用过Chroma和Milvus,但面试官问“Milvus的索引类型有哪些”,我只说IVF_FLAT,其他忘了。图7对比了传统DB和向量DB。
图7:传统数据库 vs 向量数据库
8. 向量数据库在agent是怎么被应用的?讲一下具体检索算法的实现?
我举例RAG:把文档切片,embedding后存入向量库,用户提问时embedding问题,检索top-k相似文档,拼进prompt。
他问检索算法,我讲了HNSW的大致原理——分层图,上层稀疏用于快速跳转,下层稠密精确搜索。但问到具体参数(M, efConstrucion, efSearch)时我含糊了。图8画了HNSW的结构示意。
图8:HNSW结构
面试官还问:“如果知识库很大,怎么保证检索速度?” 我说可以加粗排+精排,或者用ScaNN这类量化索引。但没实际调过,所以底气不足。
9. 在各家api平台有开销吗?自己做项目面对api开销成本过大怎么办(非coding plan)?
我说有开销,OpenAI API按token计费,跑几次实验就几十刀。他问怎么降成本,我说用便宜的模型(比如GPT-3.5代替4),或者缓存重复请求。
他追问:“非技术手段呢?” 我没想到。他提示:申请学术折扣、用开源模型自部署、优化prompt减少token消耗、设置预算告警。这些其实都是成本控制意识,我平时只顾着调参,没想过钱的事。
10. 无手撕
二面没让写代码,但全程都在抠细节。我觉得比手撕算法还难,因为算法题有标准答案,这种开放问题考的是知识广度和工程直觉。
面完我最大的感受:不要只满足于“用过”,要能讲清楚“怎么实现的”和“为什么这样设计”。面试官不关心你调过多少API,关心你遇到问题能不能拆解、能不能给出有根据的决策。
如果你也在准备Agent方向的面试,建议把上面的每个问题都画一遍图,讲给自己听。讲不通的地方,就是你的知识漏洞。
觉得有收获的话,转发给也在准备面试的朋友吧,一起少踩坑。
写在最后
有读者问过我:“这些面经真的是学员复盘的吗?”
是的。每一篇都是真实面试后的复盘,信息源可追溯。
我能做的,就是把那些“面试官问了什么、学员怎么答的、为什么这么答能过”的逻辑拆解清楚,让更多人有章可循。
至于你能不能看懂、能不能内化成自己的东西,那就看你自己了。
学AI大模型的正确顺序,千万不要搞错了
🤔2026年AI风口已来!各行各业的AI渗透肉眼可见,超多公司要么转型做AI相关产品,要么高薪挖AI技术人才,机遇直接摆在眼前!
有往AI方向发展,或者本身有后端编程基础的朋友,直接冲AI大模型应用开发转岗超合适!
就算暂时不打算转岗,了解大模型、RAG、Prompt、Agent这些热门概念,能上手做简单项目,也绝对是求职加分王🔋
📝给大家整理了超全最新的AI大模型应用开发学习清单和资料,手把手帮你快速入门!👇👇
学习路线:
✅大模型基础认知—大模型核心原理、发展历程、主流模型(GPT、文心一言等)特点解析
✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑
✅开发基础能力—Python进阶、API接口调用、大模型开发框架(LangChain等)实操
✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用
✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代
✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经
以上6大模块,看似清晰好上手,实则每个部分都有扎实的核心内容需要吃透!
我把大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~
