多模态大模型算法日常实习总结
普通mllm research日常实习个人总结
主包目前研一,从2.26开始约面30+,工作日平均每天4场面试。目前是2个面试挂了,其他基本过,还有几个在流程中,结果没出。涵盖七八个中大厂,几个独角兽,和若干小厂。大多投的是多模态大模型算法,着重投research岗
总体体会:
match程度>对口实习或论文≥论文数量>其他,方向契合比单纯堆数量和经历更重要。以及对于有趣的项目,面试官也会很开心和你聊
时间划分:
整体面试中,如果按照1小时划分的话,一般我的个人经历(项目,论文,实习)会聊个45分钟左右,剩下的时间可能是八股和手撕。整体发现大厂对于流程的把控更严,基本手撕都是要有的,八股也要有一些。中小厂更偏向对你经历的好奇,聊的好了基本就不会问你八股和手撕
部分八股:
q-former原理,他和两层mlp层的区别,以及在不同应用场景的偏好
现在业界的大模型主要都使用两层mlp来做视觉投影,逐渐淘汰了q-former,你认为是为什么?
交叉注意力你如何理解
多头注意力后续的发展有什么,介绍下(MQA,GQA等)
SFT的数据packeting如何做,有了解吗
交叉熵和KL散度有什么区别,分别如何计算
交叉熵里面的熵是什么,你解释下
矩阵的秩如何计算,特征值如何计算
llava和internVL的区别,除了语言模型,视觉编码器不同,以及训练方式不同外,还有什么区别
大模型SFT和预训练的loss差异是什么?(SFT过程中只计算回答部分的loss,会把问题mask掉。预训练是所有token都计算loss)
你了解lora吗,讲解一下(两个矩阵的初始化,三个参数定义等等)
讲下lora和qlora的区别,具体差异在哪
位置编码你了解吗,具体讲讲
讲下RoPE旋转位置编码
transformer掩码注意力机制具体如何做的
手撕:
由于面试官一般都和我的项目,论文,实习聊的挺好,感觉基本都没有在手撕卡我
leetcode:大多为简单题,少数中等题。
大模型手撕:多头注意力机制,softmax(以及softmax处理数值溢出的做法)
学AI大模型的正确顺序,千万不要搞错了
🤔2026年AI风口已来!各行各业的AI渗透肉眼可见,超多公司要么转型做AI相关产品,要么高薪挖AI技术人才,机遇直接摆在眼前!
有往AI方向发展,或者本身有后端编程基础的朋友,直接冲AI大模型应用开发转岗超合适!
就算暂时不打算转岗,了解大模型、RAG、Prompt、Agent这些热门概念,能上手做简单项目,也绝对是求职加分王🔋
📝给大家整理了超全最新的AI大模型应用开发学习清单和资料,手把手帮你快速入门!👇👇
学习路线:
✅大模型基础认知—大模型核心原理、发展历程、主流模型(GPT、文心一言等)特点解析
✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑
✅开发基础能力—Python进阶、API接口调用、大模型开发框架(LangChain等)实操
✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用
✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代
✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经
以上6大模块,看似清晰好上手,实则每个部分都有扎实的核心内容需要吃透!
我把大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~
