《大语言模型综述》精读笔记:从入门到实践,手把手教你玩转大模型!

《大语言模型综述》精读笔记:从入门到实践,手把手教你玩转大模型!

本文精读《大语言模型综述》,从大模型发展史、核心技术(扩展法则、涌现能力)到资源盘点(开源模型、数据集、训练框架),再到预训练(数据工程、Transformer 架构、分布式训练)、适配微调(指令微调、人类对齐、高效微调),以及大模型的使用(上下文学习、思维链、智能体与工具调用)。最后,文章探讨了大模型的能力评估方法,并展望了其在医疗、法律、金融、科研等行业的应用前景和未来挑战,如幻觉问题、知识更新、推理效率、多模态融合、超级对齐等。文章最后以RAG(检索增强生成)实战篇作为礼物,指导读者如何搭建本地知识库问答助手。


 导读:面对动辄上百页的《大语言模型综述》,新手往往会被海量的概念淹没。今天,我们将这本“大部头”按章节掰碎了揉烂了,为你梳理出一条最清晰的大模型学习路径。建议收藏本文,作为你随时查阅的“学习地图”!

这一章是整篇综述的灵魂,回答了“什么是大模型”以及“为什么它能火”。

  • 从 PLM 到 LLM 的跨越
  • 过去叫预训练语言模型 (PLM)(如早期的 BERT),参数量在百万到十亿级别。
  • 现在叫大语言模型 (LLM)(如 GPT-4、LLaMA),参数量飙升到百亿(10B)甚至万亿级别。
  • 两大核心基石(新手必考点)
  • 缩放定律 (Scaling Laws):随着模型参数量、数据量和计算力的指数级增加,模型的性能会呈现稳定、可预测的提升。这给了大厂“大力出奇迹”的理论支撑。
  • 涌现能力 (Emergent Abilities):这是最神奇的现象。当模型大到某个临界点(通常认为跨过 100 亿参数)时,模型会突然觉醒出以前从未教过它的复杂能力,比如上下文学习 (ICL)指令遵循多步推理

这一节简直是开发者的“百宝箱”,综述非常贴心地梳理了训练大模型需要的“原料”和“工具”。

  • 开源数据集 (Corpora):大模型读的书来自哪里?包括维基百科、Reddit 论坛、GitHub 代码库等。著名的开源数据集有 Pile、RedPajama 等。
  • 开源模型库 (Open-source Models)
  • 如果你想在本地跑大模型,LLaMA 系列绝对是绕不开的里程碑,它极大地推动了开千问 Qwen 教程源社区的发展。
  • 综述中还列举了百亿级别(如 LLaMA-7B、ChatGLM)、千亿级别(如 BLOOM)的不同选择。

预训练是大模型生命周期中最昂贵、最耗时的一步,目的是让模型掌握人类语言的规律和世界常识。

  • 数据准备 (Data Preparation)数据质量决定模型上限。这一节详细讲了如何清洗数据(过滤低质量网页、去重、去除隐私信息),以及如何进行分词 (Tokenization),把文本变成模型能看懂的数字。
  • 模型架构 (Architecture):目前几乎所有的大模型都采用了 Transformer 的 Causal Decoder(因果解码器) 架构。简单来说,就是只能根据上文预测下一个词,不能偷看下文。
  • 训练优化 (Optimization):为了训动这么大的模型,需要用到3D 并行策略(数据并行、张量并行、流水线并行)和混合精度训练技术。

预训练出来的基础模型只是个“文字接龙机器”,适配微调才是让它变成“智能助手”的关键。

  • 指令微调 (Instruction Tuning / SFT)
  • 核心动作:用大量高质量的“人类提问-标准回答”的数据对去训练模型。
  • 目的:让模型学会理解人类的指令意图,知道什么时候该总结,什么时候该翻译。
  • 对齐微调 (Alignment Tuning)
  • 核心动作:引入基于人类反馈的强化学习 (RLHF)。先训练一个“奖励模型(Reward Model)”当裁判,然后大模型每次回答,裁判就打分,大模型根据分数不断调整自己。
  • 目的:解决大模型的“幻觉”和“毒性”,让其输出符合人类的 3H 价值观(Helpful 有用、Honest 诚实、Harmless 无害)。

模型训好了,我们作为用户该怎么压榨它的潜力?这一节详细讲解了 Prompt(提示词)的魔法。

  • 上下文学习 (In-Context Learning, ICL):你不需要修改模型的参数,只需要在提问时,给它提供几个优质的问答示例(Few-shot),模型就能照猫画虎,输出你想要的格式。
  • 思维链 (Chain-of-Thought, CoT):这是突破大模型逻辑推理瓶颈的终极武器。在提示词里加上一句经典的“Let’s think step by step”(让我们一步一步地思考),模型就会把复杂的数学题拆解成中间步骤,正确率直线飙升。

这一小节整理了学术界是如何给大模型打分的。

  • 评估任务:涵盖了自然语言理解、生成、常识推理、数学能力、代码编写等。
  • 面临的挑战:大模型太聪明了,以前的考试卷子(Benchmark)很快就被刷满分了,现在学术界正在头疼如何设计更难、更贴近真实人类意图的测试集。

通过这样逐节的拆解,你会发现大模型的知识体系其实非常层次分明:先搞懂它是怎么来的(数据+架构),再弄清它是怎么被调教的(SFT+RLHF),最后学习怎么用好它(Prompt+CoT)。

希望这份真正属于《大语言模型综述》的笔记,能让你在阅读原著时不再迷茫!

 导读:面对ChatGPT等大模型的震撼表现,我们不禁要问:支撑这些模型的背后技术究竟是什么?它们是一蹴而就的吗? 今天,我们将开启《大语言模型综述》的精读连载。第一期,让我们从第一性原理出发,梳理语言模型的进化史,并揭秘大语言模型(LLM)究竟“强”在哪里。

大模型技术绝非凭空出现,在过去几十年中,语言模型(Language Model, LM)经历了四个主要的发展阶段,其核心目的也从单纯的“语言建模”逐步跃升为“通用任务求解”。

第一代:统计语言模型(SLM, 1990s)

  • 核心原理:基于马尔可夫假设,利用统计学方法(如 n-gram)通过前文预测下一个词。
  • 局限性:深受“维数灾难”困扰,阶数增加会导致数据极度稀疏,无法精确建模复杂的高阶语义关系。

第二代:神经语言模型(NLM, 2013左右)

  • 核心飞跃:引入了分布式词表示(词嵌入,Word Embedding)。像 word2vec 这样的模型,将词汇映射为低维稠密向量,有效克服了数据稀疏问题。
  • 特点:神经网络(如RNN)被用来建模序列,学习到的词嵌入可以作为特征提取器服务于下游任务。

第三代:预训练语言模型(PLM, 2018左右)

  • 核心技术:2017年基于自注意力机制的 Transformer 架构横空出世。随后,以 ELMo、BERT(仅编码器)和 GPT-1(仅解码器)为代表的模型确立了“预训练-微调(Pre-training + Fine-Tuning)”范式。
  • 特点:模型能够捕获上下文感知的语义,在各种自然语言处理(NLP)任务上取得显著提升。

第四代:大语言模型(LLM, 2022至今)

  • 奇迹时刻:研究人员发现,随着参数和数据规模的扩大,模型性能呈现出“扩展法则(Scaling Law)”。当参数规模跨过百亿/千亿(如 GPT-3 的 175B),模型突然觉醒了小模型不具备的能力(如上下文学习),这被称为“涌现能力(Emergent Abilities)”。
  • 结果:模型不再依赖针对特定任务的微调,直接通过自然语言提示(Prompt)就能解决复杂任务。

大语言模型的出现,让人类看到了通用人工智能(AGI)的曙光。与传统机器学习模型相比,LLM 具有以下六大颠覆性特点:

  1.  丰富的世界知识:经过海量无标注文本的预训练,LLM 内部压缩了庞大的世界知识(如常识、事实),相当于一个超级“知识库”。
  2.  强大的通用任务解决能力:不再是一个模型只能干一件事。LLM 通过“预测下一个词”学会了多任务处理,翻译、摘要、计算都能搞定。
  3. 易 复杂任务的推理能力:在处理涉及数学、逻辑的复杂步骤时,LLM 展现出令人震撼的推理水平。
  4. ️ 卓越的指令遵循能力:能够准确理解人类用自然语言下达的复杂指令,实现极为顺畅的人机交互。
  5. ️ 较好的人类对齐能力:通过强化学习等手段,LLM 的输出能够被有效约束,使其符合人类的价值观(有用、诚实、无害)。
  6. ️ 可拓展的工具使用能力:LLM 可以学会调用搜索引擎、计算器甚至执行代码,突破了其自身的知识边界。

综述中概括了驱动大模型取得成功的六个关键技术方向(这也是我们后续连载将深入拆解的核心):

  1. 规模扩展(Scaling):探索算力、数据量与参数规模的最优配比(如 KM 与 Chinchilla 扩展法则)。
  2. 数据工程(Data Engineering):高质量、大规模的训练数据是基础,涉及数据的收集、清洗与配比策略。
  3. 高效预训练(Efficient Pre-training):运用 3D 并行、ZeRO 等分布式训练技术,在千卡/万卡集群上进行稳定的网络优化。
  4. 能力激发(Capability Elicitation):通过指令微调(SFT)提示学习(如思维链 CoT),将模型蕴含的知识激发出来,转化为解决具体任务的能力。
  5. 人类对齐(Human Alignment):主要采用基于人类反馈的强化学习(RLHF),确保模型输出的安全与可靠。
  6. 工具使用(Tool Use):通过外接插件机制,弥补大模型在时效性信息和精确计算上的短板。

ChatGPT 和 GPT-4 的出现,正深刻改变着现有的科研范式和产业生态:

  • NLP 领域:许多传统单一任务的研究已经“终结”,研究焦点全面转向如何提升大模型的综合能力。
  • 信息检索:“搜索引擎+大模型”正在成为新一代信息获取的主流方式(检索增强生成 RAG)。
  • AI for Science:大模型被广泛应用于数学证明辅助、新材料发现、生物制药等前沿科学领域。
  • 交互范式:基于大模型的智能体(Agent)和副驾驶(Copilot)正在重塑软件开发的生命周期和用户体验。

 本期小结:《大语言模型综述》的第一章为我们勾勒了一幅壮阔的全景图。从早期的词频统计,到如今算力与数据共同催生的“智能涌现”,大模型技术正走在一条不可逆的通用智能之路上。

 导读:

欢迎来到《大语言模型综述》精读连载的第二期!上一期我们回顾了语言模型的四代演进史。今天,我们将深入探讨本书的第二章(基础介绍),带你弄清楚大模型究竟是如何“炼成”的,揭开“扩展法则”和“涌现能力”的神秘面纱,并深扒 OpenAI 打造 GPT 系列的超车之路!

将大模型想象成一个拥有海量参数的超级数学函数,它的训练本质上就是参数优化的过程 。与传统解决单一任务的模型不同,大模型的目标是成为“通用任务求解器” 。这个宏大的目标通常需要两步来实现:

第一阶段:大规模预训练 (Pre-training) —— 压缩世界知识

  • 核心逻辑:预训练是为模型参数找到一个较好的“初值点” 。模型通过海量无标注文本,玩“预测下一个词”的游戏 。正如 OpenAI 前首席科学家 Ilya Sutskever 所言,这本质上是对世界知识的压缩 。
  • 资源消耗:这一阶段对算力和数据的需求极大。目前开源模型普遍采用 2~3T 规模的词元(Token)进行预训练 。训练一个百亿参数模型通常需要百卡级别的 A100 GPU 跑上数月 。

第二阶段:指令微调与人类对齐 —— 从“毕业生”到“职场精英”

预训练模型虽然懂得多,但更像个只会顺着你的话往下接的“复读机”,需要经过专门的“入职培训”才能成为听话的助手 。

  • 指令微调 (SFT):通过“任务输入-标准输出”的配对数据进行模仿学习,激发模型通过问答形式解决任务的能力 。通常数十万到百万条高质量数据就能达到很好的微调效果 。
  • 人类对齐 (Alignment):为了防止模型胡说八道或输出有害内容,研究者引入了基于人类反馈的强化学习(RLHF) 。通过让人类给模型的回答打分,训练一个奖励模型(Reward Model),引导大模型生成符合人类价值观(有用、诚实、无害)的内容 。

为什么大厂都在拼命堆算力、堆参数?这就不得不提大模型的黄金定律——“扩展法则” 。研究发现,模型性能的提升主要依赖于规模扩展,而非架构上的微小改进 。

  • KM 扩展法则 (OpenAI, 2020):模型性能与模型参数规模、数据规模和计算算力之间存在着近似幂律的指数关系 。这为规模扩展提供了普适的定量建模方法 。
  • Chinchilla 扩展法则 (DeepMind, 2022):DeepMind 发现早期的模型(如 GPT-3)其实数据“没吃饱” 。他们提出,在给定算力下,模型参数规模和数据规模应该以等比例同步增加 。受此启发,现在的模型对数据的需求量远高于以往的估计,例如 7B 参数的 LLaMA-2 就使用了高达 2T 的词元进行训练 。
  • 为什么需要扩展法则? 最大的价值在于“可预测的扩展” 。训练大模型太贵了,有了这个法则,研究人员可以用少量算力在小模型上做沙盒实验,然后可靠地预测大模型的性能,从而节省巨额成本并监控训练异常 。

扩展法则展现的是性能平滑上升,而“涌现能力”则描绘了更为神奇的现象:当模型扩展到一定规模时,在特定任务上的性能突然出现显著跃升,远超随机水平

这三种涌现能力是大模型区别于传统小模型的重要标志:

  1. 上下文学习 (In-context Learning, ICL):无需更新参数,只要在提示词里给它几个例子(Demonstration),它就能照猫画虎地解决新任务 。
  2. 指令遵循 (Instruction Following):经过指令微调后,模型可以在没有示例的情况下,仅凭自然语言的指令去执行未见过的任务,泛化能力极强 。
  3. 逐步推理 (Step-by-step Reasoning):面对复杂的数学题,只需让模型使用“思维链(CoT)”一步步输出中间推理过程,就能大幅提升正确率 。

(注:学术界对涌现能力的本质仍有争议,有人认为这可能与评测指标的不连续性或任务设置有关 ,但对普通用户而言,模型体验的突飞猛进是真实存在的 。)


重温 OpenAI 的研发历程,会发现罗马不是一天建成的,其核心在于坚定执行“解码器架构+预测下一个词”的学习范式 。

  1. 早期探索 (GPT-1 & GPT-2):GPT-1 确立了仅解码器(Decoder-Only)的架构和生成式预训练方向 。GPT-2 试图去掉特定任务的微调,证明了依靠海量文本训练的语言模型本质上就是一个“无监督的多任务学习器” 。
  2. 规模扩展 (GPT-3):2020 年,GPT-3 将参数暴增 100 多倍达到 175B 规模 。它正式提出了“上下文学习”,确立了以提示词(Prompt)为核心的任务求解新范式 。
  3. 能力增强 (Codex & InstructGPT):面对复杂的逻辑问题,OpenAI 引入了代码数据训练(推出了 Codex),极大提升了模型的代码和数学推理能力 。同时,引入 RLHF 人类对齐技术,推出了 InstructGPT,让模型变得安全且顺从人类偏好 。这些技术最终孕育了强大的 GPT-3.5 。
  4. 性能跃升 (ChatGPT & GPT-4):ChatGPT 沿用对齐技术并针对对话进行优化,引爆了 AI 浪潮 。紧随其后的 GPT-4 不仅具有更强的推理能力,还引入了视觉多模态输入(GPT-4V),以及支持长达 128K 上下文和插件工具的 GPT-4 Turbo,让人类看到了通用人工智能(AGI)的曙光 。

 本期小结:

第二章为我们拆解了大模型的基建密码。从预训练到对齐微调,从 Scaling Law 到能力涌现,大模型的演进并非魔法,而是算力、数据与前瞻性工程设计的完美结合。

下期预告:

理论看够了,想动手实践?下一期,我们将进入本书的第三章(大语言模型资源),为你盘点当前最热门的开源模型(LLaMA-2, ChatGLM 等)、预训练与微调数据集,以及常用代码库!想知道如何在本地部署一个专属大模型?敬请期待!


阅读到这里,你对大模型的哪个“涌现能力”最感兴趣?是否需要我为你详细举例说明“上下文学习(ICL)”和“思维链(CoT)”在实际 Prompt 中的写法呢? 欢迎告诉我!

 导读:欢迎回到《大语言模型综述》精读连载!前两期我们探讨了大模型的发展史和底层逻辑(扩展法则与能力涌现)。“纸上得来终觉浅”,如果你想真正动手跑一个大模型,或者用自己的数据微调一个专属助手,该去哪里找资源呢?

本期我们将拆解本书的第三章(大语言模型资源)。这一章简直就是为开发者量身定制的“寻宝图”,我们将为你全面盘点当前开源界的顶级模型、海量数据集和炼丹框架


闭源模型(如 GPT-4, Claude 3)虽然强大,但只能通过 API 访问,数据隐私和定制化受限。幸运的是,开源社区为我们提供了极其丰富的选择。综述按照参数规模,将开源大模型分为两梯队:

1. 百亿参数级(10B – 30B):个人的“全能助理”

这个量级的模型是目前学术界和个人开发者最活跃的阵地。它们不仅能在消费级显卡(如 RTX 3090/4090)上进行推理和微调,而且能力已经非常惊艳。

  • LLaMA / LLaMA-2 / LLaMA-3 (Meta):整个开源大模型生态的“奠基者”。围绕 LLaMA 衍生出了庞大的微调家族(如 Alpaca, Vicuna)。
  • ChatGLM / GLM 系列 (清华 & 智谱):国内开源模型的先驱,对中文支持极好,且在低显存设备上的部署体验非常丝滑。
  • Qwen (通义千问) / Baichuan (百川):国内开源大厂的优秀代表,多模态和长文本处理能力极强,常年霸榜各类评测榜单。

2. 千亿参数级(100B+):企业的“私有化大脑”

如果你有充足的算力集群(比如一堆 A100/H100),可以尝试部署这些庞然大物,它们在复杂推理和多语言上表现更好。

  • BLOOM (176B):由 HuggingFace 牵头,多国超千名科学家共同训练的多语言大模型,是开源社区协作的典范。
  • OPT (175B) / LLaMA-3 (70B/400B):Meta 的重磅开源产物,性能直逼顶级闭源模型。

模型再好,也得“喂”数据。大模型的训练数据分为两个阶段的“口粮”:

1. 预训练数据 (Pre-training Corpora):打地基的“百科全书”

基础模型(Base Model)需要吸收全人类的知识。这些数据集动辄达到 TB 级别。

  • 网页文本 (Web Text):如 CommonCrawl,包含了从全网抓取的网页内容,是数据量最大的一块,但需要极其严格的清洗去重。
  • 高质量精选数据
  • 书籍与维基百科:提供长文本逻辑和准确的常识(如 Books3 语料库)。
  • 代码库 (Code):如 GitHub 数据。(重点:喂给模型大量代码,不仅能让它学会编程,还能奇迹般地提升它的数学和逻辑推理能力!)
  • 开源合集代表The PileRedPajama 等,它们已经帮你做好了数据的配比和初步清洗。

2. 微调数据 (Fine-tuning Datasets):学规矩的“错题本”

为了让基础模型变成懂人话的“助手”,需要高质量的问答数据进行指令微调(SFT)和对齐(RLHF)。

  • 指令数据集:如 FLAN 系列(学术任务聚合)、Alpaca 数据集(由机器生成的指令)、ShareGPT(人类与 ChatGPT 的真实高质量对话)。
  • 偏好数据集:如 HH-RLHF,包含了一个问题下的“好回答”和“坏回答”,专门用来训练奖励模型,纠正大模型的“价值观”。

面对几百亿参数和几个 TB 的数据,传统的单机训练早就不起作用了。你需要下面这些工业级的“炼丹炉”:

  • Hugging Face Transformers:大模型领域的“GitHub”。它封装了几乎所有主流大模型的调用代码,是新手入门的第一站。
  • 分布式训练框架
  • DeepSpeed (微软):提供了 ZeRO 技术,能将显存压力分摊到多张显卡上,是目前最普及的大模型训练框架之一。
  • Megatron-LM (英伟达):硬件原厂出品,将模型并行(张量并行、流水线并行)优化到了极致,适合超大规模集群。
  • 高效微调库 (PEFT)
  • 囊括了 LoRA (低秩微调) 等技术。有了它,你不需要更新模型的全部参数,只需要微调 1% 甚至更少的参数,单张平民显卡也能玩转大模型定制!

 本期小结:第三章为我们提供了一份详尽的“大模型基础设施清单”。从 LLaMA 到 DeepSpeed,从 The Pile 到 LoRA,正是开源社区的无私奉献,才让大模型技术走下了神坛,让每一个普通开发者都有机会拥有自己的 AI 助手。

下期预告:粮草已备齐,准备开始炼丹!下一期,我们将进入本书最硬核的章节之一:第四章(数据准备与预训练)。 一堆杂乱无章的互联网网页,到底是怎么被“清洗”干净,又是怎么被大模型“吃”进肚子里的?Transformer 的注意力机制到底是怎么运转的?我们下期见!

 导读:欢迎回到《大语言模型综述》精读连载!在上一期,我们盘点了大模型开发者的“军火库”(开源模型库、数据集和训练框架)。

万事俱备,只欠东风。今天我们正式步入大模型生命周期中最耗时、最烧钱、也最核心的阶段——第四章(预训练 Pre-training)。一起来看看,一堆杂乱无章的互联网网页,是如何被清洗干净,并最终被铸造成大模型的“世界知识”的!


大模型的强弱,很大程度上取决于它“吃”了什么。预训练数据(Pre-training Data)的质量直接决定了基础模型(Base Model)的上限。

为了给大模型准备高质量的口粮,数据工程师们需要经历极其繁琐的“清洗流水线”:

  1. 质量过滤 (Quality Filtering)
  • 启发式规则:通过语言过滤(剔除乱码和小语种)、设定词语长度阈值、剔除包含大量特殊符号的网页,快速扔掉明显的垃圾数据。
  • 分类器打分:用高质量数据(如维基百科)训练一个小型分类模型,让它去给海量的网页数据打分,低于一定阈值的直接丢弃。
  1. 去重 (De-duplication)
  • 人类在网上最爱干的事就是“复制粘贴”,如果模型反复学同一句话,就会产生“记忆过拟合”(死记硬背而缺乏泛化)。
  • 研究人员需要在句子级、文档级甚至数据集级别进行多层次去重(通常使用 MinHash 等算法)。
  1. 隐私消除与去毒 (Privacy & Toxicity Reduction)
  • 利用正则表达式,把网页里的身份证号、电话号码、邮箱地址全部抹掉(通常替换为 标签)。
  • 过滤掉包含仇恨、暴力、色情等词汇的有害文本,从源头上保证模型的“身心健康”。

目前几乎所有的大模型底层都建立在 2017 年 Google 提出的 Transformer 架构之上。但经过几年的演进,大模型的内部零件已经发生了许多微调。

综述详细拆解了目前主流的仅解码器(Decoder-Only)架构的核心零件:

  1. 位置编码 (Positional Encoding)
  • 语言是有顺序的。为了让模型知道词与词的前后关系,现在最流行的是 RoPE(旋转位置编码)ALiBi(带线性偏置的注意力)。它们让模型在处理比训练时更长的长文本时,依然能保持不错的理解力(即外推性)。
  1. 激活函数 (Activation Function)
  • 大模型最爱用的“神经元兴奋剂”是 SwiGLU(或 GeGLU)。相比早期的 ReLU,它能让梯度传递更顺滑,显著提升模型的性能。
  1. 层归一化 (Layer Normalization)
  • 为了防止模型在训练时“走火入魔”(梯度爆炸),现在普遍采用 Pre-Norm 结构(在注意力机制之前进行归一化),并使用 RMSNorm 算法,这既保证了训练的极致稳定性,又提升了计算速度。

当你有一个千亿参数的大模型,和几个 TB 的数据时,哪怕你用目前最顶配的单张 H100 显卡,也得算上几百年。因此,分布式训练(Distributed Training)技术应运而生:

  1. 数据并行 (Data Parallelism, DP):把模型复制很多份,放在不同的显卡上。每张卡只负责“吃”一小部分数据,算完后大家再汇总进度。
  2. 张量并行 (Tensor Parallelism, TP):如果模型太大,一张卡连一个完整的模型都装不下怎么办?那就把模型里的一个大矩阵(张量)“切碎”,分给几张卡同时计算。这需要极高的显卡间通信速度(通常在一台机器内部的 GPU 间进行)。
  3. 流水线并行 (Pipeline Parallelism, PP):把模型的不同层(比如第 1-10 层在一张卡,第 11-20 层在另一张卡)像流水线一样串联起来。
  4. ZeRO 优化:微软 DeepSpeed 提出的显存优化神器。它把优化器状态、梯度和模型参数切片分散到不同卡上,极大地拯救了那些显存不足的贫穷课题组。

(注:在工业界,通常是把以上几种并行技术结合起来,称为 3D 混合并行,这也是大厂的核心工程壁垒之一。)


预训练过程就像是在万丈深渊上走钢丝,动不动就会出现“Loss 突增(Loss Spike)”或者干脆训练崩溃。综述总结了几个保命技巧:

  • 学习率预热 (Learning Rate Warmup):刚开始训练时,步伐(学习率)要小一点,等模型稳定了再加快,最后再慢慢减速(余弦退火)。
  • 梯度裁剪 (Gradient Clipping):一旦发现步伐太大(梯度爆炸的苗头),强行把步伐限制在一个最大值之内。
  • 混合精度训练 (Mixed Precision):大部分时候用 FP16/BF16(半精度)算,省显存且算得快;关键的权重更新用 FP32(单精度)算,保证精度。目前 BF16 因为其更好的数值动态范围,已经成为大模型训练的首选。

 本期小结:预训练是大模型的“九年义务教育”,不仅考验数据清洗的“绣花功夫”,更考验万卡集群协同计算的“重工业实力”。这是一个将算力、数据、算法与工程优化完美结合的奇迹。

下期预告:刚“毕业”的预训练模型虽然满腹经纶,但却是个不懂礼貌的“直男”,你问它“如何炒菜”,它可能会回答“炒菜的原理是什么”。

下一期,我们将进入第五章(适配微调 / 指令微调),为你揭秘 OpenAI 是如何通过 SFT 和 RLHF(基于人类反馈的强化学习),将大模型调教成贴心、安全的智能助手的!

 导读:欢迎回到《大语言模型综述》精读连载!在上一期,我们见证了“预训练”这台超级碎纸机是如何把互联网的海量数据压缩进大模型的脑子里的。

但是,刚完成预训练的“基础模型(Base Model)”虽然满腹经纶,却是个根本不懂人类沟通规则的“直男”。如果你对它说:“给我写一首诗”,它可能会接着输出:“给我写一篇散文,给我写一篇小说……”(它还在玩文字接龙!)。

今天,我们将进入本书最激动人心的章节——第五章(适配微调 Adaptation Tuning)。看看 OpenAI 等大厂是如何施展魔法,让它“听懂人话”,并遵守人类价值观的。


要让模型学会当助手,就需要进行指令微调(也叫监督微调,SFT – Supervised Fine-Tuning)。

  • 核心原理:给模型喂大量高质量的“指令-回复”配对数据。比如,。模型通过模仿这些例子,学会了“原来人类输入一句话,我应该去解答它,而不是续写它”。
  • 数据的来源
  1. 人类手写(最贵但也最好):雇佣专业的数据标注员,写下各种千奇百怪的问题和极其详细、正确的答案。OpenAI 就是靠这招建立壁垒的。
  2. 模型生成(羊毛出在羊身上):用一个已经很强的大模型(比如 GPT-4)去自动生成成千上万的问答对(比如著名的 Alpaca 数据集就是用这种方法生成的),然后拿去训练较弱的开源模型。
  • 神奇的效果:研究发现,经过指令微调的模型,不仅能很好地完成训练过的那几种任务,甚至能举一反三,解决它以前从未见过的全新任务!(这就是泛化能力的涌现)。

模型学会了听指令,但它为了取悦你,可能会“一本正经地胡说八道(幻觉)”,或者如果坏人让它写制造危险物品的教程,它也会照做。这就需要进行对齐微调

对齐的黄金标准是 3HHelpful(有用)、Honest(诚实)、Harmless(无害)

  • 终极武器:RLHF(基于人类反馈的强化学习)这是 ChatGPT 走向神坛的核心秘籍!它的完整流程分为三步:
  1. SFT 预热:先用少量极高质量的人工数据让模型学会基本对话(也就是上一节的内容)。
  2. 训练“裁判(奖励模型 Reward Model)”:针对同一个问题,让大模型生成 4 个不同的回答。然后让人类给这 4 个回答排序(哪个最好,哪个最毒)。用这些排序数据训练出一个“裁判模型”。
  3. 强化学习(PPO):大模型继续做题,每做完一题,裁判模型就给它打分。大模型为了拿高分,就会不断调整自己的输出策略,越来越趋近于人类的喜好。

(注:除了 RLHF,目前学术界还在研究 RLAIF(基于 AI 反馈的强化学习)DPO(直接偏好优化,不需要训练裁判模型,更省显存) 等前沿替代方案。)


前面说的全量微调(Full Fine-Tuning)动辄需要更新几百亿个参数,普通人根本买不起那么多显卡。别慌,学术界为我们发明了参数高效微调(PEFT)技术!

  • 核心思想:冻结大模型原本的绝大多数参数(不让它们变),只在模型里插入一点点新的参数(可能只占总体参数的 0.1%)。训练时,只更新这极其微小的一部分。
  • 绝对的王者:LoRA (低秩自适应)
  • 原理白话版:就像你买了一本极厚的大英百科全书(大模型),你不能直接在书上乱涂乱画(冻结参数),但你可以买一本轻薄的便利贴(低秩矩阵),把你的读书笔记写在便利贴上,贴在书页里。使用的时候,把书和便利贴结合起来看就行了。
  • 优势:原本需要 8 张 A100 显卡才能微调的模型,用了 LoRA,你用一张玩游戏的 4090 显卡甚至 3090 就能微调自己的专属老婆/客服/代码助手了!

 本期小结:预训练赋予了模型“智商”,而适配微调赋予了模型“情商”和“道德感”。指令微调(SFT)和对齐(RLHF)是走向 AGI 的必经之路,而 LoRA 等高效微调技术,则是我们普通人踏上这条道路的低价车票。

下期预告:模型已经彻底炼成了!作为用户,我们该怎么压榨它的能力?

下一期,我们将进入本书的第六章(使用与提示词工程 Utilization & Prompting)。为什么别人用大模型像神仙,你用大模型像智障?只差在“提示词”!我们将揭秘“思维链(CoT)”、“上下文学习(ICL)”等顶级 Prompt 技巧。敬请期待!

 导读:欢迎回到《大语言模型综述》精读连载!在上一期,我们了解了如何通过微调(SFT)和对齐(RLHF)给大模型“注入灵魂”。

现在,一个聪明、听话的 AI 助手已经站在你面前了。但是,为什么有的人能用它写出爆款文章、写出复杂的代码,而有的人只能用它查查天气?

差距就在于“提示词(Prompt)”!今天,我们将进入本书最实用的一章——第六章(大语言模型的使用 Utilization)。让我们一起学习大牛们都在用的高级“咒语”,彻底榨干大模型的潜能!


早期的 AI 模型解决新任务,必须重新用数据训练一遍(微调)。但在大模型时代,最震撼的涌现能力之一就是上下文学习(ICL)

  • 什么是 ICL?简单来说,就是“照猫画虎”。你不需要改变模型的任何参数,只需要在提问时,给它提供几个优质的“示范(Demonstrations)”,它就能瞬间领悟你的意图,并按照你给的格式输出答案。这就叫做 Few-shot(少样本)提示
  • 举个栗子:如果你直接问:“把‘Apple’转成大写并加个星号。”(模型可能听得懂,但也可能乱回复格式)。 用 ICL 这么写:

    样例1:banana -> BANANA* 样例2:orange -> ORANGE* 问题:apple ->(模型会秒懂,立刻输出:APPLE)*

  • 避坑指南:综述指出,ICL 中样例的格式(Format)比样例的真实对错更重要!只要格式工整,哪怕你故意给几个错误答案的样例,模型依然能学到解决任务的“模式”。

虽然大模型很聪明,但如果你直接问它一道复杂的算术题或逻辑推理题,它很容易“凭直觉”瞎猜一个答案,这就是所谓的“幻觉”。

为了解决这个问题,研究人员发现了堪称魔法的 思维链(CoT) 技术。

  • 核心原理:强迫模型在输出最终答案之前,先输出中间的推理步骤。这就好比要求小学生做数学题不仅要写得数,还必须写出“解题步骤”。
  • 两大流派
  1. Zero-shot CoT(零样本思维链):最简单粗暴的魔法!你只需要在提示词的最后加上一句:“请一步一步地思考(Let’s think step by step)”。就这几个字,能让大模型在算术题上的准确率直接翻倍!
  2. Few-shot CoT(少样本思维链):结合了 ICL,你在给样例的时候,不仅给问题和答案,还把中间的推导过程也写进去。
  • 高阶演进:现在学术界已经发展出了更复杂的 树式思维(Tree of Thoughts, ToT)图式思维(Graph of Thoughts, GoT),让模型像人类下棋一样,在多个可能的思路分支中进行探索和自我纠错。

大模型有三大死穴:

  1. 不懂最新信息(比如它的训练数据只到 2023 年)。
  2. 算数极其糟糕(因为它是靠概率“猜”词,不是真正在算数)。
  3. 不能干涉现实(比如帮你定闹钟、发邮件)。

怎么破?给它外接工具(Tool Use)!这就是目前最火的 Agent(智能体) 概念。

  • ReAct 框架 (Reason + Act): 这是让模型学会用工具的经典框架。模型在遇到难题时,会先“思考(Reason)”,然后“行动(Act)”调用工具,最后根据工具返回的结果进行观察(Observation)。
  • 工作流演示

    用户:今天北京的天气适合穿什么?大模型思考:我不知道今天北京的天气,我需要先搜索。大模型行动:调用 [搜索引擎 API],搜索“北京 今日天气”。工具返回:北京今天气温-5度,大风。大模型最终回答:今天北京气温只有-5度且有大风,建议您穿上厚羽绒服并佩戴围巾。

通过这种方式,大模型不再是一个只会在屏幕里聊天的虚拟大脑,而是变成了能联网、能算数、能写代码执行的全能数字员工


 本期小结:第六章为我们展示了“咒语”的威力。无论是 ICL、CoT,还是工具调用,提示词工程的本质都是“如何更好地引导模型模拟人类的高级认知过程”。掌握了这些技巧,你才算真正拿到了进入 AI 时代的船票。

下期预告:历经千辛万苦,模型训练好了,我们也会用了。但是,市场上那么多大模型,都吹自己是“行业第一”,我们该信谁?

下一期,我们将进入本书的第七章(能力评估 Capacity Evaluation)。看看学术界是如何给大模型出试卷、做“期末考试”的!你平时常用的模型到底能考多少分?

 导读:欢迎回到《大语言模型综述》精读连载!上一期我们学习了如何用高级提示词(Prompt)榨干大模型的潜能。

如今,市面上每天都有新的大模型发布,每家都宣称自己“超越了 GPT-4”、“业内第一”。作为吃瓜群众和开发者,我们到底该信谁?学术界又是如何给这些身怀绝技的大模型出试卷、打分数的呢?

今天,我们将进入本书的第七章(能力评估 Capacity Evaluation),为你揭秘大模型的“期末考试”到底是怎么考的!


大模型不再是以前那种只会做单选题的小模型,它是一个“全科通才”。因此,研究人员为它设计了极其复杂的“考试大纲”,主要分为三大类:

1. 基础能力测试(文科)

  • 自然语言理解与生成:考查大模型能不能读懂长文章,能不能写出流畅的总结和翻译。
  • 知识问答(QA):考查模型肚子里到底装了多少墨水(闭卷考试)。经典的测试集如 MMLU(涵盖了从高中到大学的 STEM、人文等 57 个学科的单项选择题)。能在 MMLU 上拿到高分,是大模型证明自己智商的“敲门砖”。

2. 进阶能力测试(理科)

  • 复杂推理(Reasoning):这是拉开顶尖大模型和普通大模型差距的核心科目。
  • 数学推理:经典数据集如 GSM8K(小学数学应用题)和 MATH(高难度竞赛题)。
  • 逻辑推理:考查常识推理、演绎推理,看看模型会不会被脑筋急转弯绕进去。

3. 专业能力与安全性测试(综合素质)

  • 代码编写(Coding):著名的测试集如 OpenAI 提出的 HumanEval。考查模型能不能根据一段注释,写出能正常运行且逻辑正确的 Python 代码。
  • 安全性与对齐(Safety & Alignment):哪怕模型再聪明,如果教人干坏事也是不及格的。这部分会测试模型的偏见、毒性以及抗“越狱(Jailbreak)”攻击的能力。

既然试卷出好了,大模型也把题做完了,那谁来批改呢?这其实是目前学术界最头疼的问题之一。

1. 传统自动指标:越来越力不从心

以前评估机器翻译或摘要,大家喜欢用 BLEUROUGE 这类指标。它们的原理很简单:数一数大模型生成的词,和标准答案里的词有几个重合。

  • 缺点:大模型太灵活了!如果标准答案是“开心”,大模型回答了“愉悦”,虽然意思完全对,但这些死板的自动指标会直接给打 0 分。

2. 人类评估(Human Evaluation):黄金标准,但是太贵!

让人类专家(最好是各领域的博硕)去亲自阅读大模型的回答,并给出评分或偏好排序(比如 Chatbot Arena 排位赛就是让网友盲测投票)。

  • 缺点:极其昂贵、耗时,而且人类评审员也会带有主观偏见,或者面对复杂的代码和数学题时“看不懂”。

3. LLM-as-a-Judge(让大模型当裁判):屠龙少年终成裁判

这是目前最流行的新玩法!既然 GPT-4 这么聪明,我们干脆把其他模型生成的答案喂给 GPT-4,让 GPT-4 按照我们给定的评分标准(Rubric)来打分。

  • 优势:速度极快,成本极低,而且大量研究表明,GPT-4 的打分结果与人类专家的打分结果有着极高的相关性

看完前面的内容,你可能会觉得这套考试系统很完美。但在实际操作中,大模型的评估正面临着前所未有的危机:

  • ⚠️ 危机一:数据污染(Data Contamination)大模型在“预训练”阶段把全网的数据都吃进去了,这其中很可能就包含了原本应该保密的“期末考试卷”!这就像一个学生在考试前已经把答案背下来了,他在榜单上考了 100 分,但其实根本没有真正的推理能力。
  • ⚠️ 危机二:大模型太聪明,试卷不够用了早期的测试集(如某些情感分类任务)早就被大模型刷到了 99% 的准确率,甚至超过了人类水平。学术界正在拼命出更难的题,但出题的速度甚至快赶不上模型进化的速度了。
  • ⚠️ 危机三:打榜(刷榜)现象严重有些厂商为了让自己的模型在榜单上好看,专门针对公开的测试集进行过度微调。导致模型变成了“应试教育的产物”——在 MMLU 榜单上分数秒杀 GPT-4,但用户实际用起来却觉得像个“智障”。

 本期小结:第七章向我们展示了大模型评估的复杂性。评价一个大模型的好坏,不再仅仅是看排行榜上的一个数字。对于我们普通用户来说,“真实业务场景下的体感”永远比“榜单上的跑分”更重要

下期预告:不知不觉,这本一百多页的《大语言模型综述》即将被我们啃完!

下一期,我们将迎来本次精读连载的大结局(第八章 应用与未来展望)。大模型除了陪人聊天,在真实的行业里到底能干嘛?它未来的技术演进路线又是什么样的?让我们一起见证未来的图景!

 导读:欢迎来到《大语言模型综述》精读连载的大结局!

在过去的七期连载中,我们一起走过了大模型的发展史,钻进了预训练的“炼丹炉”,见证了微调的“注入灵魂”,学习了提示词的“魔法咒语”,并给大模型做了一次全面的“期末大考”。

技术最终是要服务于人类的。在这本书的最后一章(第八章),作者为我们描绘了大模型在千行百业的落地应用,并直击了当前大模型面临的核心痛点。让我们一起看看,大模型的未来到底通向哪里?


大模型早就不仅仅是一个“陪聊机器人”,它正在作为一种“通用智力引擎”,深深刻入各个垂直行业的骨髓:

  •  医疗与健康(Medical & Healthcare): 大模型可以阅读海量的最新医学文献,辅助医生进行初步诊断、生成电子病历,甚至参与解答患者的日常健康咨询。代表模型如华佗(Huatuo)、Med-PaLM 等。
  • ⚖️ 法律咨询(Legal): 法律条文浩如烟海,大模型能够一秒钟帮你找出合同里的漏洞,自动生成起草法律文书,或者为普通人提供零门槛的普法咨询。
  •  金融科技(Finance): 在瞬息万变的金融市场,大模型被用来分析长篇的财报、提取市场情绪、自动生成研报,甚至辅助进行风险评估。代表模型如 BloombergGPT。
  •  科学研究(AI for Science): 这可能是大模型最性感的应用之一!除了帮科研狗写论文、改代码,大模型还被用于数学定理证明、新材料预测、甚至蛋白质结构的解析,极大地加速了人类科学发现的进程。

尽管大模型看起来无所不能,但在迈向 AGI(通用人工智能)的道路上,还有几座大山亟待跨越。这也是未来几年 AI 领域的最大风口:

1. 致命弱点:幻觉(Hallucination)

大模型最让人头疼的就是“一本正经地胡说八道”。它本质上是一个概率预测机,缺乏对客观真理的绝对锚定。

  • 未来解法:目前工业界最主流的解法是 RAG(检索增强生成),即让模型先去本地数据库搜资料再回答。但在未来,如何让模型内部原生具备区分“事实”和“虚构”的能力,仍是世界级难题。

2. 记忆的诅咒:知识更新与编辑

世界每天都在发生新的新闻,但重新“预训练”一次大模型要花费几千万美金。

  • 未来解法:如何像在电脑上修改 Word 文档一样,直接精准地修改大模型神经网络中某一个过期的知识(知识编辑),而不会导致模型遗忘其他知识?

3. 显存刺客:长文本与推理效率

还记得我们在连载开头提到的《LLMLingua》和《ZeroMerge》这两篇前沿论文吗?大模型处理超长文本(如几十万字的书)时,其 KV Cache 显存占用会呈指数级爆炸,推理速度慢如蜗牛。

  • 未来解法:极致的模型压缩、KV Cache 动态合并、原生稀疏注意力机制,甚至是彻底颠覆 Transformer 的新架构(如 Mamba、RWKV 等线性 RNN 架构)。

4. 视觉与听觉的觉醒:多模态大模型

真实世界不只有文字。未来的大模型必须能“看”懂视频,能“听”懂语气,甚至能直接生成极其逼真的物理世界模拟(比如 OpenAI 的 Sora 模型)。原生的多模态融合是大势所趋。

5. 达摩克利斯之剑:超级对齐与安全

当未来的模型智商远超人类(即超级智能),我们如何保证它依然遵循人类的价值观?它会不会欺骗人类?这就是 OpenAI 等顶尖机构目前正在死磕的“超级对齐(Superalignment)”问题。


假如你从2026年开始学大模型,按这个步骤走准能稳步进阶。

接下来告诉你一条最快的邪修路线,

3个月即可成为模型大师,薪资直接起飞。
img

阶段1:大模型基础

img

阶段2:RAG应用开发工程

img

阶段3:大模型Agent应用架构

img

阶段4:大模型微调与私有化部署

img

配套文档资源+全套AI 大模型 学习资料,朋友们如果需要可以微信扫描下方二维码免费领取【】
在这里插入图片描述
img

img

img

img
img

配套文档资源+全套AI 大模型 学习资料,朋友们如果需要可以微信扫描下方二维码免费领取【】

在这里插入图片描述

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/285846.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月16日 上午7:00
下一篇 2026年3月16日 上午7:01


相关推荐

关注全栈程序员社区公众号