当前位置: 首页 > news >正文

ms-swift保姆级教程:从安装到微调,小白也能轻松上手

ms-swift保姆级教程:从安装到微调,小白也能轻松上手

1. 前言:为什么选择ms-swift?

如果你正在寻找一个简单易用的大模型微调框架,ms-swift可能是目前最好的选择之一。这个由魔搭社区推出的开源工具,让大模型微调变得像搭积木一样简单。

想象一下,你只需要几行命令,就能在消费级显卡上微调Qwen、Llama等主流大模型,还能轻松实现多模态训练、强化学习等高级功能。这就是ms-swift的魅力所在。

2. 环境准备与安装

2.1 硬件要求

ms-swift对硬件要求非常友好:

  • 最低配置:NVIDIA显卡(如RTX 3090/4090)
  • 推荐配置:A100/H100等专业显卡
  • 显存要求:7B模型微调仅需9GB显存(使用QLoRA)

2.2 安装步骤

安装ms-swift非常简单,只需执行以下命令:

pip install ms-swift

如果需要使用最新的开发版本:

pip install git+https://github.com/modelscope/ms-swift.git

3. 快速开始:10分钟微调Qwen2.5-7B

让我们用一个简单的例子,快速体验ms-swift的强大功能。

3.1 准备微调命令

在单卡3090上对Qwen2.5-7B-Instruct进行自我认知微调:

CUDA_VISIBLE_DEVICES=0 \ swift sft \ --model Qwen/Qwen2.5-7B-Instruct \ --train_type lora \ --dataset 'AI-ModelScope/alpaca-gpt4-data-zh#500' \ 'AI-ModelScope/alpaca-gpt4-data-en#500' \ 'swift/self-cognition#500' \ --torch_dtype bfloat16 \ --num_train_epochs 1 \ --per_device_train_batch_size 1 \ --per_device_eval_batch_size 1 \ --learning_rate 1e-4 \ --lora_rank 8 \ --lora_alpha 32 \ --target_modules all-linear \ --gradient_accumulation_steps 16 \ --eval_steps 50 \ --save_steps 50 \ --save_total_limit 2 \ --logging_steps 5 \ --max_length 2048 \ --output_dir output \ --system 'You are a helpful assistant.' \ --warmup_ratio 0.05 \ --dataloader_num_workers 4 \ --model_author swift \ --model_name swift-robot

3.2 参数说明

  • --model: 指定要微调的模型
  • --train_type: 微调方式,这里使用LoRA
  • --dataset: 使用的数据集
  • --lora_rank: LoRA的秩大小
  • --output_dir: 输出目录

4. 进阶使用:自定义数据集微调

4.1 准备自定义数据集

ms-swift支持自定义数据集,只需按照以下格式准备JSON文件:

[ { "instruction": "解释什么是人工智能", "input": "", "output": "人工智能是..." }, { "instruction": "写一首关于春天的诗", "input": "", "output": "春风拂面..." } ]

4.2 使用自定义数据集微调

准备好数据集后,只需修改--dataset参数:

CUDA_VISIBLE_DEVICES=0 \ swift sft \ --model Qwen/Qwen2.5-7B-Instruct \ --train_type lora \ --dataset /path/to/your/dataset.json \ ...

5. 模型推理与部署

5.1 使用训练好的模型进行推理

训练完成后,可以使用以下命令进行推理:

CUDA_VISIBLE_DEVICES=0 \ swift infer \ --adapters output/vx-xxx/checkpoint-xxx \ --stream true \ --temperature 0 \ --max_new_tokens 2048

5.2 合并LoRA权重并使用vLLM加速

CUDA_VISIBLE_DEVICES=0 \ swift infer \ --adapters output/vx-xxx/checkpoint-xxx \ --stream true \ --merge_lora true \ --infer_backend vllm \ --vllm_max_model_len 8192 \ --temperature 0 \ --max_new_tokens 2048

6. Web UI界面操作

ms-swift还提供了Web UI界面,让操作更加直观:

swift web-ui

启动后,在浏览器中访问http://localhost:7860即可使用。

7. 总结与下一步

通过本教程,你已经学会了:

  1. ms-swift的基本安装与配置
  2. 使用内置数据集进行模型微调
  3. 准备和使用自定义数据集
  4. 训练后的模型推理与部署
  5. Web UI界面的基本使用

下一步,你可以尝试:

  • 探索ms-swift支持的其他模型
  • 尝试不同的微调方法(如QLoRA、全参数微调)
  • 使用多模态数据集进行训练
  • 部署模型到生产环境

获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

http://www.jsqmd.com/news/505415/

相关文章:

  • Llava-v1.6-7b医疗应用:医学影像报告自动生成系统
  • 全球隐私控制(GPC):隐私保护新利器的机遇与挑战
  • SEO_10个提升网站排名的实用SEO技巧分享(80 )
  • Vivado 2023.1与VCS/Verdi 2022版本跨版本联合仿真实战指南
  • Transformer跨界玩转多模态:MulT模型在语音+视频+文本分析中的5个实战技巧
  • 金仓数据库在文档型数据迁移中的技术观察:基于MongoDB协议兼容与安全治理的政务金融实践
  • 为什么ResNet-50能解决梯度消失?深入图解残差连接原理
  • B样条vs贝塞尔:游戏角色动画该选哪种曲线?Unity性能实测对比
  • 避坑指南:多组学相关性热图绘制常见的5个数据预处理错误及解决方法
  • AI4S重塑药物研发:药物研发中的AI应用,外包还是自主掌握?
  • DAMOYOLO-S模型鲁棒性测试:对抗样本攻击与防御初探
  • 即席查询框架选型指南:从Presto到ClickHouse的7种方案对比(2023版)
  • AI小程序定制开发:河南企业如何选择靠谱的技术服务商?
  • Cogito-V1-Preview-Llama-3B辅助C语言学习:代码注释生成与基础概念讲解
  • 轻资产创业实战:KISSABC 智能化云仓与数字化系统如何赋能合作伙伴稳健经营?
  • 书匠策AI:文献综述的“智能建筑师”,搭建学术研究的稳固基石
  • MySQL 最左前缀,一篇讲明白,面试实战都能用
  • 谷歌浏览器自动刷新插件安装与使用指南
  • Glyph视觉推理模型从零开始:部署、使用与优化全攻略
  • 国内AI开发者必备:HuggingFace镜像站hf-mirror.com的4种高效下载方法(附避坑指南)
  • 轨迹跟踪,考虑侧倾和曲率变化,同时修正侧偏刚度 simulink carsim联合仿真
  • 金仓数据库在银行存取记录系统MySQL迁移中的实践总结:零停机切换与性能优化复盘
  • 0基础自学大模型6个月,6个offer,大模型面试复盘:从0基础到拿到Offer,我的转行避坑指南!
  • OBS多平台直播神器:obs-multi-rtmp插件3分钟快速上手指南
  • 如何精准评估鼠标性能?专业测试工具全攻略
  • Python+AKShare实战:5分钟搭建LOF基金溢价监控系统(附微信推送配置)
  • 如何快速掌握Python CAD自动化:面向工程师的完整指南
  • 开源软件协议GPL及协议隔离
  • 无刷直流电机六步换相法实战:从霍尔信号到PWM输出的完整流程(基于STM32F4)
  • Fluent 激光电弧复合焊模拟的奇妙之旅