当前位置: 首页 > news >正文

从0到1,无代码微调并部署本地大语言模型LLM

前言

LLM模型微调 能让大模型掌握特定行业的深度知识,能够实现AI虚拟主播,AI医生,AI程序员,AI网络安全工程师等特定领域的延展。更重要的是,当有本地部署的硬件条件限制时,能够让微调后小的大语言模型等效百亿级的大语言模型

测试环境:windows11,RTX4070显卡
下面将手把手带你跑通无代码模型微调的全过程

环境安装

必要的工具:

  • git: https://git-scm.cn/ (方便拉取资源)
  • python: https://www.python.org/ (微调和运行必要环境)

流程:

  1. 创建文件夹,并拉取 llama-factory项目
mkdir D:/LLM-Tuning
cd D:/LLM-Tuning
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
  1. 安装LLaMA-Factory需要的环境
pip install -e ".[torch,metrics]"
pip install modelscope
  1. 验证环境
python -c "import torch; print(torch.cuda.is_available()); print(torch.cuda.get_device_name(0))"

正常输出如下:

微调环境验证

错误:正常来说安装完后验证环境会显示显卡型号,但是我在安装时,会出现报错,原因是它安装了错误的cuda版本,需要重新安装torch
解决方法如下:

pip uninstall torch torchvision torchaudiopip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126

如果其他版本请参考官网: https://pytorch.org/get-started/locally/

微调

这里用于演示,只对模型做一个自我认知的微调

准备数据集

拉取数据集

git clone https://www.modelscope.cn/datasets/DanKe123abc/yuki_identity_sft.git

修改数据集
下载完后,目录结构如下:

微调数据集1

我们需要关注的是yuki_identity_sft.jsonl文件,用编辑器将下列文字全局替换:

Yuki => 陈千语
DanKe => 管理员

效果图如下:

微调数据集替换

准备本地模型

这里使用的是qwen2.5_1.5B用于演示
下载模型

from modelscope import snapshot_downloaddownload_dir = "D:\\Models\\Qwen2.5-1.5B-Instruct"model_dir = snapshot_download('qwen/Qwen2.5-1.5B-Instruct', cache_dir=download_dir, revision='master'
)print(f"下载完成!模型路径为: {model_dir}")

微调

配置数据集信息

配置文件

  1. 打开D:\LLM-Tuning\LLaMA-Factory\data文件,将刚刚修改好的数据集yuki_identity_sft.jsonl文件拖入文件夹中
  2. 打开dataset_info.json文件,添加新配置:

数据集配置

"MytestData": {
    "file_name":"yuki_identity_sft.jsonl",
    "columns": {
      "messages": "conversations"
    },
    "tags": {
      "role_tag": "role",
      "content_tag": "content",
      "user_tag": "user",
      "assistant_tag": "assistant"
    },
    "formatting": "sharegpt"
  },

打开LLamaFactory微调面板

python -m llamafactory.cli webui

设置参数如图,其他的默认就行:

微调参数设置

设置完后直接点击开始,模型就开始训练了,训练完后会出现下面提示:

微调完成

验证模型

加载训练完后的lora模型

验证模型

训练前后的大模型对比

训练前

微调前

训练后

微调后

观察图片可以发现,微调后qwen2.5认为自己是陈千语,自己由管理员开发的

大模型部署

下面不是新手向
如果只是希望学习微调的在这里已经结束了,下面是本系列教程的后续,如何用langchain部署本地的LLM微调大语言模型

环境配置

安装需要的环境

pip install peft langchain langchain-huggingface

下面是样例代码

代码流程如下:
加载基座模型->加载 LoRA 权重->正在合并权重->构建Langchain通道->调用模型

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
from peft import PeftModel
from langchain_huggingface import HuggingFacePipeline
from langchain_core.prompts import PromptTemplateBASE_MODEL_PATH = r'D:\Models\Qwen2.5-1.5B-Instruct\qwen\Qwen2___5-1___5B-Instruct'
LORA_PATH = r'D:\D_MyProject\LLM-Tuning\LLaMA-Factory\saves\Qwen2.5-1.5B\lora\train_2026-02-13-23-16-50\checkpoint-260'print("1. 正在加载基座模型...")
tokenizer = AutoTokenizer.from_pretrained(BASE_MODEL_PATH, trust_remote_code=True)base_model = AutoModelForCausalLM.from_pretrained(BASE_MODEL_PATH,torch_dtype=torch.float16,device_map="auto",  trust_remote_code=True
)print("2. 正在加载 LoRA 权重 ...")
model = PeftModel.from_pretrained(base_model, LORA_PATH)print("3. 正在合并权重 ...")
model = model.merge_and_unload()print("4. 构建 LangChain 管道...")
pipe = pipeline("text-generation",model=model,tokenizer=tokenizer,max_new_tokens=200,    do_sample=True,        temperature=0.7,      repetition_penalty=1.1 
)llm = HuggingFacePipeline(pipeline=pipe)print("\n=== 陈千语上线 ===\n")respone = llm.invoke('你好,你是谁?')
print(f"{respone}")

演示效果

langchain演示效果

至此,我们成功的实现了大模型LLM从微调到部署,把之前的langchain串起来...

如果❤喜欢❤本系列教程,就点个关注吧,后续不定期更新~

http://www.jsqmd.com/news/382126/

相关文章:

  • 上下文赌博机:个性化推荐新范式
  • 2026年诚信的四川公寓床/智能公寓床怎么选真实参考销售厂家参考 - 品牌宣传支持者
  • 2026年知名的双层宿舍铁床/单层宿舍铁床制造厂家推荐哪家靠谱 - 品牌宣传支持者
  • 实测对比后,AI论文网站 千笔·专业论文写作工具 VS 云笔AI,更适合本科生!
  • 2026年评价高的网纹辊橡胶辊/镜面辊橡胶辊哪家靠谱实力工厂参考 - 品牌宣传支持者
  • 2026年比较好的防泼水三明治网布/弹力三明治网布哪家专业工厂直供推荐 - 品牌宣传支持者
  • 2026年定制景区移动厕所/生态移动厕所怎么选真实参考销售厂家参考 - 品牌宣传支持者
  • 2026年靠谱的冻干精华代加工,冻干眼膜代加工厂家选型参考手册 - 品牌鉴赏师
  • 真的太省时间!降AIGC软件 千笔·专业降AI率智能体 VS 云笔AI 专科生必备
  • 强烈安利! 更贴合继续教育的降AI率工具,千笔AI VS 学术猹
  • 2026年正规的注塑脚垫TPE颗粒/注塑TPE颗粒怎么选直销厂家价格参考 - 品牌宣传支持者
  • 2026年诚信的人工湿地火山岩/火山岩厂家选择指南怎么选(真实参考) - 品牌宣传支持者
  • 2026年热门的自动喷砂机/喷砂机帮我推荐几家源头厂家推荐 - 品牌宣传支持者
  • 亚马逊商品详情页前端性能优化实战
  • Moving Forward
  • 顶刊的两大支柱硬的逻辑与软的叙事
  • 2026年热门的螺旋风管加工/共板风管加工源头厂家采购指南怎么选(畅销) - 品牌宣传支持者
  • 从此告别拖延,一键生成论文工具,千笔ai写作 VS Checkjie
  • 关于本子细节的国自然评审潜规则
  • 易贝(eBay)商品详情页前端性能优化实战
  • 探寻硅酸钙保温管佼佼者:2026年优质企业盘点,高密度硅酸钙异形件/硅酸钙保温板,硅酸钙保温管公司选哪家 - 品牌推荐师
  • 2026年正规的造型铝方通/铝方通方管帮我推荐几家源头厂家推荐 - 品牌宣传支持者
  • 大厂Java面试实战:从缓存到微服务的三轮提问与解析
  • 2026年优秀的多通路旋转接头/主轴中心出水旋转接头畅销生产厂家采购指南怎么选 - 品牌宣传支持者
  • 2026别错过!9个降AIGC工具测评:专科生降AI率必备攻略
  • 2026年耐高温铝型材尼龙隔热条/PA66尼龙隔热条哪家靠谱制造厂家推荐 - 品牌宣传支持者
  • 写作压力小了,AI论文平台千笔AI VS speedai,研究生专属更高效!
  • 真心不骗你 9个AI论文工具测评:专科生毕业论文+开题报告全攻略
  • 2026年比较好的彩妆代加工厂家选型决策榜单 - 品牌鉴赏师
  • 大数据预测最赚钱作物,输入历年价格,气候,处理,趋势预测,输出,推荐种植品种。