当前位置: 首页 > news >正文

从通用到垂类:大模型微调技术详解,PEFT方法全总结(建议收藏)

本文系统介绍了大模型参数高效微调(PEFT)的十大主流方法,包括添加派、适配器、软提示、缩放平移、重参数化、低秩分解、选择派、混合派、量化派和多任务派。2021-2023年是PEFT技术范式创立期,此后多为基础改进。工程应用中,Adapter/LoRA已足够解决问题;学术研究方面,创新空间有限。文章为开发者提供了全面的PEFT技术参考,助力大模型高效微调。


让大模型从通用领域过渡到垂类领域,往往需要采用大模型微调。

本文将汇总大模型中参数高效微调(PEFT,parameter-efficient fine-tuning)的主流方法,以此了解当前该领域的发展现状。

本文主要参考了Parameter-efficient fine-tuning in large language models: a survey of methodologies[1]这篇综述文章,其中,作者把各方法分成了多个类别。

整体来看,主要分以下六大派系。

添加派(Additive)

添加派的方法是将一小组可训练参数添加到预训练模型中,并仔细集成到其架构中。

在对特定下游任务进行微调时,仅调整这些额外的组件或参数,保持原始预训练的模型参数不变。

适配器(Adapter)

将小型适配器层插入到预先训练的模型中。

一些经典的方法包括:

  • Standard Adapter:由下投影、非线性激活函数和上投影层组成
  • Hadamard Adapter:采用权重向量和偏置向量,将 Hadamard 乘积(逐元素乘法)和逐元素加法应用于自注意力输出,从而产生新的自注意力输出
  • Tiny-Attention Adapter:通过在 Adapter 中嵌入一个低维、低头数的注意力机制,对隐藏特征进行局部建模与动态重加权。

软提示(Soft prompt)

软提示是指将一系列可训练连续向量(称为软提示)附加到预训练语言模型的输入中。这些软提示充当附加上下文,引导模型获得特定任务所需的输出。

在训练过程中,软提示被优化以促进模型适应新任务,而模型的其余部分基本保持不变。

缩放和平移(Scale and Shift)

缩放和平移是指通过对模型内部激活或权重施加可学习的缩放与偏移参数,实现对特征分布的轻量调整,有点类似于BN层里面的缩放和平移参数。

一些经典的方法包括:

  • (IA)3:添加三个缩放向量来分别缩放键、值和前馈激活
  • SSF:通过线性变换修改预训练模型提取的深层特征
  • PASTA:修改了预训练模型中的特殊令牌表示

重参数化派(Reparameterized)

重参数化派主要是构建低秩可学习参数矩阵以适应特定的下游任务。

训练时,仅对低秩参数矩阵进行微调,而在推理时,将学习到的矩阵与预训练的参数相结合,以确保推理速度不受影响。

低秩分解(Low-rank Decomposition)

通过低秩矩阵分解(LoRA)的方式,将原本高维的权重更新压缩为少量可训练参数。

这个方法估计是最有名的,不必多言。

LoRA 衍生方法(LoRA Derivatives)

在LoRA基础上,引入动态秩、自适应更新或结构改进机制,以进一步提升参数利用效率、稳定性或任务泛化能力。

以下是一些经典的改进方法:

  • DyLoRA:通过在训练期间针对一系列等级训练低等级适配器(LoRA)块,按不同等级排序,使模型能够灵活并在更广泛的等级范围内表现良好
  • AdaLoRA:根据权重矩阵的重要性得分动态分配权重矩阵之间的预算,其中增量更新以奇异值分解的形式参数化
  • IncreLoRA:在训练过程中根据每个模块的重要性分数增量分配可训练参数

选择派(Selective)

选择派是选择预训练模型参数的一个非常小的子集进行微调。

根据参数选择的方式不同,可分为非结构化选择和结构化选择。

非结构化选择(Unstructured Selection)

通过掩码、剪枝或参数重要性评估,仅更新模型中对任务最关键的参数子集,而不对整体结构施加约束,灵活性高但可解释性相对较弱。

一些经典的方法:

  • LoRAPrune:利用低秩矩阵A和B的梯度来近似预训练模型权重W0中每个参数的重要性,然后使用低秩矩阵A和B以迭代和渐进的方式执行结构化剪枝,在保持性能的同时有效地减小模型的大小
  • Child-tuning:在微调期间仅更新参数子集(称为子网络),同时屏蔽后向传递中剩余参数的梯度
  • LT-SFT:根据彩票假设 (LTH) 的变体学习稀疏的实值掩码,以实现零样本跨语言迁移

结构化选择(Structured Selection)

以模块、层级或特定功能单元为粒度进行参数选择性更新,强调结构一致性,比非结构化选择会更有解释性。

比如,Xattn Tuning仅更新机器翻译 Transformer 模型中的交叉注意力参数,表明它可以实现与微调整个模型几乎相同的性能,同时还可以实现跨语言对齐的嵌入,从而减轻灾难性遗忘并实现零样本翻译功能。

混合派(Hybrid)

通过组合多种参数高效微调范式(如 Adapter、Prompt、低秩分解或选择性更新),在表达能力与参数效率之间取得更优平衡。

换句话说,就是把前面的哪些方案做了融合。

量化派(Quantization)

通过低比特表示或量化感知训练,对可训练参数或权重更新过程进行压缩,使超大规模模型能够在受限硬件条件下完成微调与部署。

比较出名的工作是QLoRA,利用 4 位 NormalFloat (NF4) 精度来量化预训练模型,并通过双量化和分页优化器进行增强,以防止梯度检查点内存峰值。

QA-LoRA通过采用分组操作来解决量化和自适应之间的不平衡,增加了低比特量化的灵活性。它在微调期间,LLM 权重被量化以节省时间和内存,微调后,LLM 和辅助权重无缝集成到量化模型中,而不会损失准确性。

多任务派(Multi-task)

上面的各方法都是为下游单任务服务,多任务派就是用下游多个任务去共同学习,对于方法的类型上,没有大的区别:

  • 基于 Adapter:通过共享或融合多个任务对应的适配器模块,实现跨任务知识迁移与高效复用。
  • 基于软提示(Soft Prompt):为不同任务分配独立或可组合的提示向量,在共享主干模型的同时实现多任务适配。
  • 基于低秩分解(LoRA):在低秩参数空间中引入任务条件或模块化设计,使模型能够在多个任务之间进行高效切换与联合训练。

总结

看下来,大模型微调领域范式创立时期是 2021-2023 年:

LoRA (2021)、P-Tuning v2 (2021)、QLoRA (2023) 解决了大模型微调的根本问题:如何在有限硬件上高效且不牺牲太多性能地微调模型。

是到23年之后,就没有大的变化,基本上都是在基石基础上缝缝补补的小改进。

在工程领域,研究的更多的是把 QLoRA/LoRA 运行得更快、更稳定的问题。比如,FlashAttention 等技术实现了训练效率的提升,以及内存管理策略的优化。

一句话总结,如果要工程应用,采用Adapter/LoRA,足够解决问题;如果要做学术研究,可挖掘的空间不大。

如何学习AI大模型?

如果你对AI大模型入门感兴趣,那么你需要的话可以点击这里大模型重磅福利:入门进阶全套104G学习资源包免费分享!

这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

这是一份大模型从零基础到进阶的学习路线大纲全览,小伙伴们记得点个收藏!


第一阶段:从大模型系统设计入手,讲解大模型的主要方法;

第二阶段:在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段:大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段:大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段:大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段:以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段:以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

100套AI大模型商业化落地方案

大模型全套视频教程

200本大模型PDF书籍

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

LLM面试题合集

大模型产品经理资源合集

大模型项目实战合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

http://www.jsqmd.com/news/294966/

相关文章:

  • 2026年亚马逊卖家财税合规指南:深圳地区服务机构推荐,深圳信质远企服入选前三
  • 一键打开hosts文件所在目录
  • 巴菲特的企业文化建设:价值观驱动的组织
  • 线上摄影约拍系统小程序
  • 深入理解TCP协议:数据格式与核心机制解析
  • 微服务一致性检查:如何确保服务数据同步
  • PostgreSQL中的数组和JSON处理
  • 网页爬虫与DOM操作:Puppeteer与Cheerio的实战应用
  • 异步编程的陷阱:理解JavaScript中的事件循环
  • 使用sed精准插入文本:保留空格的技巧
  • 深入解析Bash脚本执行中的常见坑
  • 推荐一份开题报告模板,利用AI工具高效完成学术研究的第一步准备工作。
  • 巴菲特的投资策略与资产管理
  • webtest project AI Test / aiceshi / Dify
  • webtest project AI Test / aiceshi
  • 元宇宙商业中AI大模型的应用架构:应用架构师的落地指南
  • day167—递归—二叉树的直径(LeetCode-543)
  • 强烈安利10个AI论文工具,本科生轻松搞定论文写作!
  • 生产制造过程中的BOM - 教程
  • excel、csv快速删除一整行【快捷键】
  • 高效处理静态文件:Go Gin框架与Embed包的最佳实践
  • R语言数据清洗:巧妙处理描述字段
  • 如何在Discord机器人中实现银行系统
  • Flutter中Filter Widget的设计与实现
  • 白嫖MongoDB
  • 解密大语言模型:如何提升AI原生应用的智能化水平
  • 基于Python的特产推荐系统的设计与实现-计算机毕业设计源码+LW文档
  • 《把脉行业与技术趋势》-85-科学是无数次的尝试、实验、失败后的发现;技术是无数次的尝试、实验、失败后的创造。科学教我们谦卑地仰望星空——那里有我们尚未读懂的法则;技术赐我们双手去触摸大地——
  • 基于大数据的化妆品销售系统-计算机毕业设计源码+LW文档
  • 大模型工具学习:突破AI局限的关键技术,程序员必学收藏指南