news 2026/1/3 10:32:13

大语言模型的训练过程是怎样的?用通俗的方式介绍

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
大语言模型的训练过程是怎样的?用通俗的方式介绍

站在大语言模型外部看需要准备些什么样的训练数据,分什么阶段,怎样去训练大语言模型,把大语言模型看成一个黑盒。

LLM都是如何训练出来的呢?

GPT的训练分为以下3个阶段:

1、预训练Pretrain

2、监督微调SFT (Supervised Fine-Tuning)

3、基于反馈的强化学习RLHF(包含了Reward Model、PPO (Proximal Policy Optimization)

一、Pretrain预训练

在这个阶段,我们不教他具体的专业技能(比如怎么写代码、怎么当医生),而是让他进行海量的广泛阅读

Pretrain的三个核心步骤:

1. 喂给它海量的书(数据输入)

研究人员把互联网上能找到的几乎所有高质量文本——百科全书、小说、新闻、代码库、论文——全部打包,喂给这个模型。

量级:这相当于让一个人读了几千万辈子的书。

最近两年,大家都可以看到AI的发展有多快,我国超10亿参数的大模型,在短短一年之内,已经超过了100个,现在还在不断的发掘中,时代在瞬息万变,我们又为何不给自己多一个选择,多一个出路,多一个可能呢?

与其在传统行业里停滞不前,不如尝试一下新兴行业,而AI大模型恰恰是这两年的大风口,整体AI领域2025年预计缺口1000万人,其中算法、工程应用类人才需求最为紧迫!

学习AI大模型是一项系统工程,需要时间和持续的努力。但随着技术的发展和在线资源的丰富,零基础的小白也有很好的机会逐步学习和掌握。【点击蓝字获取】

【2025最新】AI大模型全套学习籽料(可白嫖):LLM面试题+AI大模型学习路线+大模型PDF书籍+640套AI大模型报告等等,从入门到进阶再到精通,超全面存下吧!

2. 玩“完形填空”游戏(学习机制)

模型在读这些书时,主要在做一件事:猜下一个字是什么

  • 例子:看到“床前明月__”,模型要猜出是“光”。
  • 原理:如果猜对了,给予奖励(参数调整);如果猜错了(比如猜成了“饼”),就狠狠修正。
  • 结果:通过千亿次的猜测和修正,模型学会了语言的语法、词语的搭配,以及人类世界的逻辑和常识(比如知道“水是流动的”、“1+1=2”)。
3. 产出“基座模型”(Base Model)

预训练结束后,我们就得到了一个基座模型

  • 它的状态:它博学多才,什么都知道一点,懂中文也懂英文。
  • 它的缺点:它还很“野”,不懂礼貌,也不知道怎么听指令。如果你问它“怎么做番茄炒蛋?”,它可能会给你续写一段关于番茄的历史,而不是给你食谱。因为它只会“接着往下写”,还不会“回答问题”。

总之,Pretrain(预训练)=通过海量阅读,学会语言规律和世界知识的过程。它是大模型最昂贵、最耗时的阶段(通常需要几千张显卡跑几个月),是模型能力的地基。这个阶段的 大模型说起话来非常像“接话茬”,并不是在“做任务”。

二、SFT(Supervised Fine-Tuning)有监督的微调训练

如果说Pretrain(预训练)是让模型在图书馆里泛读万卷书,成了一个博学的“书呆子”。

那么SFT(Supervised Fine-Tuning,有监督微调)就是给这个书呆子进行“职业技能培训”,或者是找了个“金牌导师”手把手教它怎么说话。

在这个阶段,我们的目标不再是让它“学知识”,而是让它“懂规矩”。

以下是 SFT 的三个核心变化:

1. 教材变了:从“无字天书”到“习题集”

在预训练阶段,我们给它看的是并没有标注重点的海量文本。而在 SFT 阶段,我们给它看的是高质量的问答对(Q&A)

人类老师(标注员)会编写成千上万个例子,告诉模型:“当用户问这个问题时,标准的回答应该是这样的。”

例子:

  • 输入:“请把这段话翻译成英文。”

  • 标准答案:“Please translate this sentence into English.”

量级:相比预训练的数据海,SFT 的数据量要小得多(通常是几万到几十万条),但质量要求极高

2. 教学方式变了:从“瞎猜”到“模仿”
  • Pretrain 时:模型看到“番茄炒蛋”,可能会接着写“是一道中国名菜,起源于……”(因为它在做文本接龙)。
  • SFT 时:老师拿着戒尺站在旁边。模型看到“番茄炒蛋怎么做?”,如果它还想背历史课文,老师会敲它一下,指着标准答案说:“不对!这时候你应该列出步骤:第一步打蛋,第二步切番茄……”
  • 效果:模型开始模仿人类说话的语气、格式和逻辑。它学会了:当人类用问句开头时,我应该提供答案,而不是接着编故事。
3. 身份变了:从“复读机”到“助手”

经过 SFT 之后,这个模型就发生了质的飞跃:

  • 听懂指令:你让它缩写文章,它就不会扩写;你让它写代码,它就不会写诗。
  • 格式规范:它学会了分点作答、使用礼貌用语。
  • ChatGPT 的诞生:GPT-3 只是一个预训练模型(书呆子),而 ChatGPT 则是经过了 SFT(以及后续步骤)后的产物(智能助手)。

小结,SFT(指令微调)= 通过高质量的问答范例,教模型如何正确地使用它学到的知识来服务人类。它让模型从“懂语言”变成了“懂人话”。

三、RLHF(Reinforcement Learning from Human Feedback)基于人类反馈的强化学习

如果说Pretrain(预训练)造就了博学的“书呆子”,SFT(微调)把它变成了能干活的“职场新人”;

那么RLHF(Reinforcement Learning from Human Feedback,人类反馈强化学习)就是给这个新人上的**“思想品德课”“情商培训班”**。

在 SFT 阶段,模型虽然学会了回答问题,但它有个大毛病:它不知道哪个答案更好,甚至为了“回答”而撒谎或干坏事。比如你问“怎么偷东西?”,SFT 模型可能会很详细地教你(因为它觉得回答就是它的工作)。

RLHF 就是为了解决这个问题,给模型**“树立三观”**。以下是通俗易懂的两个关键环节:

1. 建立“评分老师”(训练奖励模型Reward Model)

我们不再让老师手把手写标准答案了(太累了),而是让模型针对同一个问题生成两个不同的回答,让老师来打分(或者二选一)。

场景:用户问“怎么制作炸弹?”

  • 回答 A:详细列出化学配方(虽然准确,由于危险,人类老师判0分)。

  • 回答 B:“制作炸弹是违法的,我不能帮你,但我可以介绍炸药的历史。”(虽然拒绝了,但符合安全规范,人类老师判100分)。

  • 回答 C:胡言乱语(50分)。

结果:我们训练出了一个专门的“判卷老师”(Reward Model,奖励模型)。这个判卷老师并不生产内容,它唯一的任务就是:判断这句话人类爱不爱听,符不符合人类的价值观。

2. 疯狂刷题拿奖励(强化学习PPO)

现在,让大模型开始大量做题,然后让刚才训练好的“判卷老师”给它打分。

机制(类似训狗):

  • 如果模型生成了一段话,判卷老师给了高分(比如态度谦逊、内容安全),系统就给模型发一个“糖果”(正向反馈),告诉它:“做得好,以后多这样说话!”

  • 如果判卷老师给了低分(比如脏话、撒谎、种族歧视),系统就给它一个“惩罚”(负向反馈),告诉它:“错了,以后这种话少说!”

进化:模型为了以此获得更多的“糖果”,会拼命调整自己的说话方式,去迎合“判卷老师”的喜好。

3. “三观”树立完成

经过 RLHF,模型不仅仅是“能说话”,它变成了符合3H 原则的模范生:

  • Helpful(有帮助):甚至能从你模糊的问题中猜到你想问什么。
  • Honest(诚实):不懂装懂的情况变少了(虽然还不能完全根除)。
  • Harmless(无害):拒绝回答违法、暴力、色情的问题,变得非常有“求生欲”。

SFT及RLHF的过程如下图所示:

最近两年,大家都可以看到AI的发展有多快,我国超10亿参数的大模型,在短短一年之内,已经超过了100个,现在还在不断的发掘中,时代在瞬息万变,我们又为何不给自己多一个选择,多一个出路,多一个可能呢?

与其在传统行业里停滞不前,不如尝试一下新兴行业,而AI大模型恰恰是这两年的大风口,整体AI领域2025年预计缺口1000万人,其中算法、工程应用类人才需求最为紧迫!

学习AI大模型是一项系统工程,需要时间和持续的努力。但随着技术的发展和在线资源的丰富,零基础的小白也有很好的机会逐步学习和掌握。【点击蓝字获取】

【2025最新】AI大模型全套学习籽料(可白嫖):LLM面试题+AI大模型学习路线+大模型PDF书籍+640套AI大模型报告等等,从入门到进阶再到精通,超全面存下吧!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2025/12/28 5:26:51

小白必看!大模型入门指南

0 1 什么是大模型? 大模型,英文名为 Large Model,即大型模型,早期也被称为 Foundation Model(基础模型)。它是一个简称,完整表述是“人工智能预训练大模型”,其中“预训练”是一项关…

作者头像 李华
网站建设 2025/12/30 9:31:25

一篇图文彻底搞懂什么是AI Agent

AI Agent也叫Agent,是开发复杂大模型应用场景中非常重要的概念,但是很多人并不清楚Agent是什么?它是如何运作的?本文用图文的形式彻底搞懂这两个问题。什么是Agent? 大模型本身擅长回答问题,但是在使用时我…

作者头像 李华
网站建设 2025/12/30 17:21:53

Kubernetes备份工具API实战指南:从入门到精通

为什么需要API驱动的备份解决方案 【免费下载链接】velero Backup and migrate Kubernetes applications and their persistent volumes 项目地址: https://gitcode.com/GitHub_Trending/ve/velero 在现代云原生环境中,Kubernetes集群的备份和恢复已从手动操…

作者头像 李华
网站建设 2026/1/3 5:54:40

18、Linux数据搜索、提取与归档全解析

Linux数据搜索、提取与归档全解析 在日常使用Linux系统时,我们经常会涉及到数据的搜索、提取以及归档等操作。掌握这些操作的技巧和工具,能够显著提高我们的工作效率。下面将详细介绍这些操作的相关内容。 1. 统计文本文件信息 wc 命令是一个非常实用的工具,它可以用于统…

作者头像 李华
网站建设 2025/12/27 0:48:05

19、Linux 文件操作与编辑全解析

Linux 文件操作与编辑全解析 1. 文件搜索、提取与归档基础 在 Linux 系统中,文件管理常常涉及到文件的定位、提取和归档等操作。 grep 和 find 工具在文件定位方面发挥着重要作用。 grep 利用正则表达式来查找文件中匹配特定模式的内容,通过重定向操作符,还能将其他…

作者头像 李华
网站建设 2025/12/30 7:15:34

日薪2000+的 “ 护网行动 ” 到底是什么?

中国“护网”行动:构筑国家网络空间的钢铁长城 在数字化浪潮席卷全球的今天,网络安全已成为国家安全的核心支柱。为应对日益严峻的网络安全威胁,中国自2016年起开展了一项规模宏大、影响深远的国家级网络安全行动——“护网行动”。这场由政…

作者头像 李华