当前位置: 首页 > news >正文

大模型训练三部曲:预训练、SFT与RLHF,小白也能看懂的大模型三步进化!

本文揭秘了大模型从基础到实用的进化三步曲:预训练(海量阅读获取知识)、监督微调(学习对话规则)、人类反馈强化学习(价值对齐)。预训练阶段模型如同博学家但“不听话”,通过SFT学会根据指令回答,而RLHF则让模型符合人类价值观。文章还介绍了代码实战和LoRA技术,说明普通人也能参与大模型微调,为后续如何用消费级硬件微调大模型做铺垫。


前言

很多初学者有一个误区:以为把百科全书喂给模型,它就能回答问题了。大错特错。

如果你直接用百科全书训练一个模型(Base Model),当你问它:“也就是北京的特产是什么?” 它可能会接着你的话往下写:“……还有上海的特产,广州的特产。” 因为它只会“文字接龙”,它不懂这是在“回答问题”

要让 AI 从“续写狂魔”变成“贴心助手”,需要经历三个阶段:

    1. 预训练 (Pre-training):读万卷书,学通识。(获得知识)
    1. 监督微调 (SFT):名师辅导,学规矩。(学会对话)
    1. 人类反馈强化学习 (RLHF):价值对齐,学做人。(符合人类价值观)

今天,我们就来拆解这三步走的底层逻辑与数据差异。


第一阶段:预训练 (Pre-training) —— 孤独的博学家

这是最烧钱、最耗时、门槛最高的阶段。99% 的公司和个人都玩不起,只能用开源的(如 Llama 3, Qwen)。

1. 核心任务:预测下一个词 (Next Token Prediction)

在这个阶段,AI 被关在一个只有书的房间里。我们给它喂海量的互联网文本(CommonCrawl、维基百科、GitHub 代码)。

训练目标只有一个:遮住这句话的最后一个字,猜它是啥。

  • 输入:“床前明月光,疑是地上__”
  • AI 预测:“霜” (奖励) / “鞋” (惩罚)

这种训练方式叫Causal LM (因果语言模型)

2. 只有“知识”,没有“意识”

经过几万亿个 Token 的训练,模型学会了语法、逻辑、世界知识。它变成了Base Model (基座模型)

Base Model 的特点:

  • 博学:它知道量子力学,也知道 Python 语法。
  • 不听话:你问它问题,它可能不回答,而是给你出下一道题(因为它以为在做文本续写)。

第二阶段:监督微调 (SFT) —— 懂事的练习生

为了让 AI 听懂指令,我们需要进入Supervised Fine-Tuning (SFT)阶段,也叫指令微调 (Instruction Tuning)

1. 核心任务:问答配对

这个阶段的数据不再是“乱糟糟的网页”,而是人工精心编写的(Prompt, Response)对。

  • Prompt (指令):“请把下面这句话翻译成英文:你好。”
  • Response (回答):“Hello.”

模型依然是在做“预测下一个词”,但这次它学到了一个模式当用户发出指令时,我要给出对应的回答,而不是接着指令往下编。

2. 数据格式的质变

这是实战中最重要的区别。

  • 预训练数据(纯文本):```plaintext
    今天天气真好,我们去公园玩吧。公园里有很多人…
  • SFT 数据(对话格式,通常是 JSONL):```plaintext
    { “instruction”: “请解释一下什么是量子纠缠?”, “output”: “量子纠缠是量子力学中的一种现象,描述了两个粒子…”}

经过 SFT,模型就变成了Chat Model (对话模型),比如Llama-3-Instruct


第三阶段:RLHF (人类反馈强化学习) —— 有道德的助手

SFT 后的模型虽然能对话,但它可能为了讨好你而胡说八道 (Hallucination),或者输出暴力色情内容。 为了让 AI 符合人类的价值观(有用、诚实、无害),需要用到RLHF (Reinforcement Learning from Human Feedback)

1. 核心流程:老师打分

这就像训练小狗,做对了给骨头,做错了打手心。

    1. 奖励模型 (Reward Model):让人类给 AI 的回答打分(好回答得高分,坏回答得低分)。训练一个“打分模型”来模仿人类的喜好。
    1. 强化学习 (PPO/DPO):让 AI 自己生成回答,Reward Model 给分。AI 为了拿高分,会不断调整策略,向“人类喜欢的方向”靠拢。

2. DPO:更优雅的替代者

传统的 PPO 算法非常复杂且不稳定。现在主流的微调(如 Llama 3)开始使用DPO (Direct Preference Optimization)。 它不需要训练复杂的奖励模型,直接给 AI 两条回答(一条好的,一条坏的),告诉它:“学好的,别学坏的”。


四、 代码实战:看看 SFT 代码长啥样

在实际工作中,我们 90% 的场景是在做SFT (微调)。也就是拿开源的 Base 模型,喂入自己的行业数据(比如医疗问答、法律文书)。

我们使用 Hugging Face 的trl库(Transformer Reinforcement Learning),这是目前最流行的微调工具。

# 伪代码演示 SFT 核心逻辑from datasets import load_datasetfrom trl import SFTTrainerfrom transformers import TrainingArguments, AutoModelForCausalLM# 1. 加载模型 (比如 Qwen 或者 Llama)model_name = "Qwen/Qwen1.5-7B"model = AutoModelForCausalLM.from_pretrained(model_name)# 2. 加载数据 (你的私有数据,JSON格式)# 格式: {"text": "User: 什么是SFT? \n Assistant: SFT是监督微调..."}dataset = load_dataset("json", data_files="my_data.json", split="train")# 3. 设置训练参数args = TrainingArguments( output_dir="./sft_output", per_device_train_batch_size=4, # 显存杀手,调小点 learning_rate=2e-5, # 微调的学习率通常很小 num_train_epochs=3)# 4. 初始化 SFT 训练器 (Hugging Face 把脏活累活都封装了)trainer = SFTTrainer( model=model, train_dataset=dataset, dataset_text_field="text", # 指定数据集中哪一列是训练文本 max_seq_length=1024, args=args)# 5. 开始炼丹trainer.train()

五、 结语:普通人的机会在哪里?

看完这三部曲,你可能会绝望:“预训练要几千张显卡,SFT 也要大显存,我这破电脑能干啥?”

别急。AI 届为了让普通人也能玩转大模型,发明了一种“偷懒”的技术。 我们不需要微调模型的所有参数(几十亿个),我们只需要微调不到 1%的参数,就能达到几乎相同的效果。

这就是大名鼎鼎的LoRA (Low-Rank Adaptation)

​最后

我在一线科技企业深耕十二载,见证过太多因技术更迭而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。

我整理出这套 AI 大模型突围资料包:

  • ✅AI大模型学习路线图
  • ✅Agent行业报告
  • ✅100集大模型视频教程
  • ✅大模型书籍PDF
  • ✅DeepSeek教程
  • ✅AI产品经理入门资料

完整的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
​​

为什么说现在普通人就业/升职加薪的首选是AI大模型?

人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。


智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200%,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。

AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。

​​

资料包有什么?

①从入门到精通的全套视频教程⑤⑥

包含提示词工程、RAG、Agent等技术点

② AI大模型学习路线图(还有视频解说)

全过程AI大模型学习路线

③学习电子书籍和技术文档

市面上的大模型书籍确实太多了,这些是我精选出来的

④各大厂大模型面试题目详解

⑤ 这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌,构建起"前沿课程+智能实训+精准就业"的高效培养体系。

课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

​​​​

如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能 ‌突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**

http://www.jsqmd.com/news/395001/

相关文章:

  • 基于springboot+Vue的汽车配件销售管理系统_kp8i9cgz
  • 题解:洛谷 P1049 [NOIP 2001 普及组] 装箱问题
  • 基于springboot+Vue的企业员工薪酬管理系统_n4s02htu
  • 【节点】[MainLightRealtimeShadow节点]原理解析与实际应用
  • 学习仲氦光谱的体会
  • 基于springboot+Vue的人才公寓管理系统_897cjl4r
  • Kafka在体育行业的应用:实时比赛数据分析
  • 贷款协商机构怎么选?北、上、广多地正规平台深度解析与亲测推荐 - 代码非世界
  • 负债协商不踩坑!北京、上海、广州贷款协商口碑机构盘点,附真实协商经验 - 代码非世界
  • BISHI61 小q的数列
  • 基于springboot+Vue的仁和机构的体检预约系统的设计与实现_06t067ij
  • 2026负债人实测|靠谱逾期处理公司盘点,正规网贷信用卡协商机构名单(附真实上岸经验) - 代码非世界
  • OpenClaw把“能力(capability)抽象成device
  • AI 时代,程序员和产品经理的生存指南:边界消融后,我们该何去何从?
  • 题解:洛谷 P1048 [NOIP 2005 普及组] 采药
  • 2026年信用卡逾期协商指南:亲测靠谱机构名单与上岸经验分享 - 代码非世界
  • 负债逾期不用愁!高性价比网贷+信用卡协商公司实测,这一家值得托付 - 代码非世界
  • P4211 [LNOI2014] LCA
  • 蓝牙低功耗音频 Le audio音频输入控制协议(AICS)剖析 - 指南
  • 亲身经历:月薪五千,如何应对十万逾期债务?性价比高的协商路子在这 - 代码非世界
  • 题解:洛谷 P2196 [NOIP 1996 提高组] 挖地雷
  • AI应用架构师总结:在线学习系统架构设计的8个核心文档
  • 提示工程架构师亲授:智能交通中的5个关键Prompt设计
  • 本地贷款逾期协商较好的机构口碑评价较高的信用卡协商机构 - 代码非世界
  • 探秘AI提示工程架构师在智能营销中的提示工程应用
  • 贷款逾期真实的网上委托协商还款机构有哪些推荐? - 代码非世界
  • Agent 架构下的沙盒隔离技术实现
  • 题解:洛谷 P1216 [IOI 1994 / USACO1.5] 数字三角形 Number Triangles
  • 贷款逾期后,协商还款可以找哪些机构?协商还款找对这3类机构,稳步上岸不踩坑 - 代码非世界
  • AI原生应用领域:混合推理对行业的变革影响