当前位置: 首页 > news >正文

大模型微调——Fine-tuning

以 GPT、Gemini、Qwen 为代表的大模型,已经具备了通用语言理解与生成能力,但在真实业务中,我们往往会遇到三个问题:

1 领域不匹配:专业领域如金融、法律、生物信息等,术语密集、表达规范,大模型只能“懂个大概”,但不够专业

2 任务不聚焦:有时候我们希望模型稳定地完成某一类或几类任务(如分类、代码补全),而不是“什么都会一点”。

3 风格与约束:通用大模型的回复格式、语气、推理路径、合规要求,往往需要被“教会”,而不是靠 prompt 碰运气。

那么这时候,我们就需要微调(Fine-tuning)来让大模型“从通才变专家”。

大模型微调的分类

Full Fine-tuning(全参数微调)

全参数微调,顾名思义,就是模型的所有参数都参与反向传播,所有参数都进行调整,本质是在原模型基础上“整体再训练一遍”,更像“重塑一个新模型”。其特点如下:

  • 理论性能上限最高
  • 不需要在模型里引入额外结构
  • 计算和存储成本高
  • 容易过拟合 / 灾难性遗忘

PEFT(Parameter-Efficient Fine-Tuning,参数高效微调)

PEFT,与FFT相比,并不更新模型的所有参数,其冻结原模型参数,而额外只训练少量额外参数。众多PEFT方法中,LoRA(Low-Rank Adaptation)是目前最主流、工程上最成熟的方案。与FFT相比,特点如下:

Full Fine-tuningLoRA(PEFT)
需训练参数100%通常 <1%
训练成本非常高显著降低
小数据稳定性较差很好
多任务扩展困难容易

代码的实现

Full Fine-tuning

#1 加载预训练模型 model = torch.load(args.pretrain_checkpoint) model = model.to(device) #超参数 #--- Prepare Optimizer ---# optimizer = optim.Adam(model.parameters(), lr=args.lr, amsgrad=True) #--- Prepare Scheduler ---# scheduler = StepLR(optimizer, step_size=args.gamma_step, gamma=args.gamma) #2 准备微调训练集 my_trainset = SCDataset(train_rna, train_protein, args.enc_max_seq_len, args.dec_max_seq_len) my_testset = SCDataset(test_rna, test_protein, args.enc_max_seq_len, args.dec_max_seq_len) train_loader = torch.utils.data.DataLoader(my_trainset, **train_kwargs, drop_last=True, sampler=train_sampler) test_loader = torch.utils.data.DataLoader(my_testset, **test_kwargs, drop_last=True, sampler=test_sampler) #3 FFT训练 for epoch in range(start_epoch+1, args.epochs + 1): torch.cuda.empty_cache() train_loss, train_ccc = train(args, model, device, train_loader, optimizer, epoch) scheduler.step() #4 保存最终模型 model.save_pretrained("./full_ft/final_model")

Low-Rank Adaptation (LoRA)

from peft import LoraConfig, get_peft_model # ========================= # 1. 加载预训练模型 # ========================= model = torch.load(args.pretrain_checkpoint) model = model.to(device) # ===== 新增:LoRA 配置 ===== lora_config = LoraConfig( r=8, lora_alpha=32, lora_dropout=0.1, bias="none", task_type="SEQ_2_SEQ_LM", target_modules=["q_proj", "v_proj"] ) # ===== 新增:包装为 PEFT / LoRA 模型 ===== model = get_peft_model(model, lora_config) # 可选但强烈推荐:确认只有 LoRA 在训练 model.print_trainable_parameters() # ========================= # 超参数,准备优化器 & Scheduler # ========================= optimizer = optim.Adam( filter(lambda p: p.requires_grad, model.parameters()), lr=args.lr, amsgrad=True ) scheduler = StepLR( optimizer, step_size=args.gamma_step, gamma=args.gamma ) # ========================= # 2. 准备微调训练集 # ========================= my_trainset = SCDataset( train_rna, train_protein, args.enc_max_seq_len, args.dec_max_seq_len ) my_testset = SCDataset( test_rna, test_protein, args.enc_max_seq_len, args.dec_max_seq_len ) train_loader = torch.utils.data.DataLoader( my_trainset, **train_kwargs, drop_last=True, sampler=train_sampler ) test_loader = torch.utils.data.DataLoader( my_testset, **test_kwargs, drop_last=True, sampler=test_sampler ) # ========================= # 3. PEFT(LoRA)训练(流程不变) # ========================= for epoch in range(start_epoch + 1, args.epochs + 1): torch.cuda.empty_cache() train_loss, train_ccc = train( args, model, device, train_loader, optimizer, epoch ) scheduler.step() # ========================= # 4. 保存最终模型(LoRA adapter) # ========================= model.save_pretrained("./lora_adapter")

这里给大家精心整理了一份全面的AI大模型学习资源包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享

👇👇扫码免费领取全部内容👇👇

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图方向不对,努力白费

这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

4. 2026行业报告

行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

5. 大模型项目实战

学以致用,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

6. 大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

7. 资料领取:全套内容免费抱走,学 AI 不用再找第二份

不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:

👇👇扫码免费领取全部内容👇👇

http://www.jsqmd.com/news/524300/

相关文章:

  • 别再死记硬背了!SolidWorks二次开发,用好APIHelp这个“活字典”就够了
  • 在Java中如何理解方法访问修饰符的作用
  • 金仓数据库性能调优全攻略:从基础查询到高并发场景优化(附电子证照系统案例)
  • 20253214庄景博 实验1报告
  • egoShieldTimeLapse:基于STM32的延时摄影运动控制库
  • 豆包AI推广效果怎么?2026企业获客实效深度评测 - 品牌2026
  • [INFRA] EMR集群LogPusher组件功能和运行原理分析
  • AtCoder Beginner Contest 450 复盘
  • YYQ-16A圈带动平衡机
  • MATLAB/Simulink 两相交错并联Buck电路仿真:电压闭环控制之旅
  • 2026最新国内防护眼镜推荐!外贸出口优质防护眼镜权威榜单发布 - 十大品牌榜
  • 编译原理课程设计
  • 【路径规划】在二维和三维空间中实现RRT_算法,根据障碍物位置和尺寸实现的避障功能附matlab代码
  • 【SAP PO】从零开始:SAP PO与RFC接口的WebServices服务实战指南
  • 20243408 2025-2026-2 《Python程序设计》实验1报告
  • 20252411 实验一《Python程序设计》实验报告
  • 实战分享:用roslibjs在Web端控制机器人移动(附完整代码示例)
  • 2026最新国内电焊面罩推荐!外贸出口优质电焊面罩权威榜单发布 - 十大品牌榜
  • PTA L3-037 夺宝大赛(C++ 含代码解释)
  • Git误删急救指南:30秒挽救代码
  • Java 并发编程教科书级范例:深入解析 computeIfAbsent 与方法引用
  • 20252203 2025-2026-2 《Python程序设计》实验1报告
  • YOLOv3-tiny实战:从零搭建目标检测模型(附完整代码解析)
  • 2026年 上海广告灯箱维修服务推荐榜:专业门头/发光字/高空/招牌/文化墙灯箱维修,一站式解决连锁品牌与餐饮商超照明难题 - 品牌企业推荐师(官方)
  • 消泡粉价格及高性价比供应商推荐:聚醚消泡剂/造纸消泡剂/金属加工消泡剂/食品消泡剂/食品消泡粉/农药消泡剂/发酵消泡剂/选择指南 - 优质品牌商家
  • 20252910刘长天 2025-2026-2《网络攻防实践》第二周作业
  • Gazebo仿真环境下的SLAM建图实战:从模型导入到地图保存全流程
  • 2026浅层砂过滤器选型指南:循环水过滤器、旁滤器、无阀过滤器、活性炭过滤器、石英砂过滤器、砂石过滤器、砂缸过滤器选择指南 - 优质品牌商家
  • 2026年防撞护栏应用白皮书桥梁建设领域深度解析:市政桥梁护栏/市政道路防撞护栏/景观道路护栏/景观防撞桥梁护栏/选择指南 - 优质品牌商家
  • 2026 最新国内AI应用服务商/厂家TOP5评测!全场景覆盖实证权威榜单发布,技术赋能多领域数字化升级 - 十大品牌榜