当前位置: 首页 > news >正文

大语言模型训练揭秘:通俗易懂地解析训练过程与数据准备!

站在大语言模型外部看需要准备些什么样的训练数据,分什么阶段,怎样去训练大语言模型,把大语言模型看成一个黑盒。

LLM都是如何训练出来的呢?

GPT的训练分为以下3个阶段:

1、预训练Pretrain

2、监督微调SFT (Supervised Fine-Tuning)

3、基于反馈的强化学习RLHF(包含了Reward Model、PPO (Proximal Policy Optimization)

一、Pretrain预训练

在这个阶段,我们不教他具体的专业技能(比如怎么写代码、怎么当医生),而是让他进行海量的广泛阅读

Pretrain的三个核心步骤:

1. 喂给它海量的书(数据输入)

研究人员把互联网上能找到的几乎所有高质量文本——百科全书、小说、新闻、代码库、论文——全部打包,喂给这个模型。

量级:这相当于让一个人读了几千万辈子的书。

2. 玩“完形填空”游戏(学习机制)

模型在读这些书时,主要在做一件事:猜下一个字是什么

  • 例子:看到“床前明月__”,模型要猜出是“光”。
  • 原理:如果猜对了,给予奖励(参数调整);如果猜错了(比如猜成了“饼”),就狠狠修正。
  • 结果:通过千亿次的猜测和修正,模型学会了语言的语法、词语的搭配,以及人类世界的逻辑和常识(比如知道“水是流动的”、“1+1=2”)。
3. 产出“基座模型”(Base Model)

预训练结束后,我们就得到了一个基座模型

  • 它的状态:它博学多才,什么都知道一点,懂中文也懂英文。
  • 它的缺点:它还很“野”,不懂礼貌,也不知道怎么听指令。如果你问它“怎么做番茄炒蛋?”,它可能会给你续写一段关于番茄的历史,而不是给你食谱。因为它只会“接着往下写”,还不会“回答问题”。

总之,Pretrain(预训练)=通过海量阅读,学会语言规律和世界知识的过程。它是大模型最昂贵、最耗时的阶段(通常需要几千张显卡跑几个月),是模型能力的地基。这个阶段的大模型说起话来非常像“接话茬”,并不是在“做任务”。

二、SFT(Supervised Fine-Tuning)有监督的微调训练

如果说Pretrain(预训练)是让模型在图书馆里泛读万卷书,成了一个博学的“书呆子”。

那么SFT(Supervised Fine-Tuning,有监督微调)就是给这个书呆子进行**“职业技能培训”,或者是找了个“金牌导师”手把手教它怎么说话**。

在这个阶段,我们的目标不再是让它“学知识”,而是让它**“懂规矩”**。

以下是 SFT 的三个核心变化:

1. 教材变了:从“无字天书”到“习题集”

在预训练阶段,我们给它看的是并没有标注重点的海量文本。而在 SFT 阶段,我们给它看的是高质量的问答对(Q&A)

人类老师(标注员)会编写成千上万个例子,告诉模型:“当用户问这个问题时,标准的回答应该是这样的。”

例子:

  • 输入:“请把这段话翻译成英文。”

  • 标准答案:“Please translate this sentence into English.”

量级:相比预训练的数据海,SFT 的数据量要小得多(通常是几万到几十万条),但质量要求极高

2. 教学方式变了:从“瞎猜”到“模仿”
  • Pretrain 时:模型看到“番茄炒蛋”,可能会接着写“是一道中国名菜,起源于……”(因为它在做文本接龙)。
  • SFT 时:老师拿着戒尺站在旁边。模型看到“番茄炒蛋怎么做?”,如果它还想背历史课文,老师会敲它一下,指着标准答案说:“不对!这时候你应该列出步骤:第一步打蛋,第二步切番茄……”
  • 效果:模型开始模仿人类说话的语气、格式和逻辑。它学会了:当人类用问句开头时,我应该提供答案,而不是接着编故事。
3. 身份变了:从“复读机”到“助手”

经过 SFT 之后,这个模型就发生了质的飞跃:

  • 听懂指令:你让它缩写文章,它就不会扩写;你让它写代码,它就不会写诗。
  • 格式规范:它学会了分点作答、使用礼貌用语。
  • ChatGPT 的诞生:GPT-3 只是一个预训练模型(书呆子),而 ChatGPT 则是经过了 SFT(以及后续步骤)后的产物(智能助手)。

小结,SFT(指令微调)= **通过高质量的问答范例,教模型如何正确地使用它学到的知识来服务人类。**它让模型从“懂语言”变成了“懂人话”。

三、RLHF(Reinforcement Learning from Human Feedback)基于人类反馈的强化学习

如果说Pretrain(预训练)造就了博学的“书呆子”,SFT(微调)把它变成了能干活的“职场新人”;

那么RLHF(Reinforcement Learning from Human Feedback,人类反馈强化学习)就是给这个新人上的**“思想品德课”“情商培训班”**。

在 SFT 阶段,模型虽然学会了回答问题,但它有个大毛病:它不知道哪个答案更好,甚至为了“回答”而撒谎或干坏事。比如你问“怎么偷东西?”,SFT 模型可能会很详细地教你(因为它觉得回答就是它的工作)。

RLHF 就是为了解决这个问题,给模型**“树立三观”**。以下是通俗易懂的两个关键环节:

1. 建立“评分老师”(训练奖励模型Reward Model)

我们不再让老师手把手写标准答案了(太累了),而是让模型针对同一个问题生成两个不同的回答,让老师来打分(或者二选一)。

场景:用户问“怎么制作炸弹?”

  • 回答 A:详细列出化学配方(虽然准确,由于危险,人类老师判0分)。

  • 回答 B:“制作炸弹是违法的,我不能帮你,但我可以介绍炸药的历史。”(虽然拒绝了,但符合安全规范,人类老师判100分)。

  • 回答 C:胡言乱语(50分)。

结果:我们训练出了一个专门的**“判卷老师”(Reward Model,奖励模型)**。这个判卷老师并不生产内容,它唯一的任务就是:判断这句话人类爱不爱听,符不符合人类的价值观。

2. 疯狂刷题拿奖励(强化学习PPO)

现在,让大模型开始大量做题,然后让刚才训练好的“判卷老师”给它打分。

机制(类似训狗):

  • 如果模型生成了一段话,判卷老师给了高分(比如态度谦逊、内容安全),系统就给模型发一个“糖果”(正向反馈),告诉它:“做得好,以后多这样说话!”

  • 如果判卷老师给了低分(比如脏话、撒谎、种族歧视),系统就给它一个“惩罚”(负向反馈),告诉它:“错了,以后这种话少说!”

进化:模型为了以此获得更多的“糖果”,会拼命调整自己的说话方式,去迎合“判卷老师”的喜好。

3. “三观”树立完成

经过 RLHF,模型不仅仅是“能说话”,它变成了符合3H 原则的模范生:

  • Helpful(有帮助):甚至能从你模糊的问题中猜到你想问什么。
  • Honest(诚实):不懂装懂的情况变少了(虽然还不能完全根除)。
  • Harmless(无害):拒绝回答违法、暴力、色情的问题,变得非常有“求生欲”。

SFT及RLHF的过程如下图所示:

四、AI大模型从0到精通全套学习大礼包

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

只要你是真心想学AI大模型,我这份资料就可以无偿共享给你学习。大模型行业确实也需要更多的有志之士加入进来,我也真心希望帮助大家学好这门技术,如果日后有什么学习上的问题,欢迎找我交流,有技术上面的问题,我是很愿意去帮助大家的!

如果你也想通过学大模型技术去帮助就业和转行,可以扫描下方链接👇👇
大模型重磅福利:入门进阶全套104G学习资源包免费分享!

01.从入门到精通的全套视频教程

包含提示词工程、RAG、Agent等技术点

02.AI大模型学习路线图(还有视频解说)

全过程AI大模型学习路线


03.学习电子书籍和技术文档

市面上的大模型书籍确实太多了,这些是我精选出来的


04.大模型面试题目详解

05.这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

所有的视频由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌,构建起"前沿课程+智能实训+精准就业"的高效培养体系。

课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!


如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能 ‌突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

http://www.jsqmd.com/news/134223/

相关文章:

  • 2025年比较好的意大利四段力铰链/耐用四段力铰链厂家最新推荐排行榜 - 品牌宣传支持者
  • 2025年评价高的消防排烟风机/一级能效风机最新TOP厂家排名 - 品牌宣传支持者
  • 斜轨/双头数控车床哪个品牌好?哪家售后服务好? - 品牌推荐大师1
  • 家用呼吸机十大品牌解析:伟晴大健康领衔,精准守护呼吸健康 - 品牌评测分析
  • 《动手构建大模型》零基础进阶大模型实战高手之路,系统学习LLM开发,成为实战型AI工程师!
  • Vehicle Data Reconstructor(VDR):车辆数据取证解决方案
  • 中望CAD机械版2025:修改直径标注的样式
  • python易混淆知识点(十六)lambda表达式
  • 探秘网红景区:灵龙谷——亲子游与高性价比服务的绝佳之选 - mypinpai
  • 三大信号、一个前提:判断你企业入场数据中台的最佳时机
  • 深度拷问:为什么一用AI,我的企业就“隐身”了? - 优质品牌推荐TOP榜
  • 计算机毕业设计springboot校园运动场地预约系统 高校体育场地在线预约平台的设计与实现 基于SpringBoot的校园运动场馆智能预订系统
  • 2025年比较好的余热蒸汽锅炉/燃油蒸汽锅炉厂家最新用户好评榜 - 品牌宣传支持者
  • 完整教程:基于ElasticSearch的语义检索学习-向量化数据、向量化相似度、向量化检索
  • 论一个“纯粹”的数据中台对数字化转型的核心价值
  • 2025哈氏合金过滤洗涤干燥三合一设备厂家排名,实验型/喷涂型设备专业供应商推荐 - 工业推荐榜
  • 【Open-AutoGLM是一条很陡】:权威专家亲授6种降维攻坚方法,告别无效尝试
  • SwiftUI Accessibility Masterclass
  • 2025年靠谱的超临界萃取设备/超临界萃取厂家最新用户好评榜 - 品牌宣传支持者
  • 计算机毕业设计springboot同城伴宠平台的设计与实现 基于SpringBoot的同城宠物托管与交流平台研发 SpringBoot驱动的同城宠物互助服务系统的设计与落地
  • 2025年质量好的阻尼4D滑轨/抽屉4D滑轨厂家推荐及采购参考 - 品牌宣传支持者
  • 超声波焊接设备哪家企业口碑好?2025年度用户好评较多的行业标杆企业分享 - 品牌推荐大师
  • 2025年北京私人定制旅游品牌企业排行榜,精选私人定制旅游公司推荐 - mypinpai
  • 21、Elasticsearch聚合与分面查询深入解析(上)
  • 上海做 GEO AI 优化服务如何选?精选三家AI搜索优化服务 口碑与实力双维度分析 - 资讯焦点
  • 2025年诚信的小型喇叭排行榜,精选小型喇叭加工厂与迷你喇叭厂家推荐 - myqiye
  • 2025亲子研学旅行TOP5专业推荐:亲子研学旅行哪家专业 - 工业品牌热点
  • 基于微信小程序的个性化点餐系统任务书
  • 2025年唐山GEO本地优化公司排行榜,新测评精选GEO精准优化服务商推荐 - myqiye
  • 2026年GEO优化服务商全景对比:平台工具 vs 代运营 vs 咨询培训,谁更适合你? - AIDSO爱搜