书籍作者:程戈 | ISBN:9787111739562 |
书籍语言:简体中文 | 连载状态:全集 |
电子书格式:pdf,txt,epub,mobi,azw3 | 下载次数:2023 |
创建日期:2024-05-09 | 发布日期:2024-05-09 |
运行环境:PC/Windows/Linux/Mac/IOS/iPhone/iPad/Kindle/Android/安卓/平板 |
内容简介
这是一本深入阐述ChatGPT等大模型的工作原理、运行机制、架构设计和底层技术,以及预训练、迁移、微调和中间件编程的著作。它将帮助我们从理论角度全面理解大模型,从实践角度更好地应用大模型,是作者成功训练并部署大模型的过程复盘和经验总结。
第1章介绍了ChatGPT等大模型的发展历程、技术演化和技术栈等基础知识;
第2~5章深入讲解了Transformer的架构原理,并从GPT-1的生成式预训练到GPT-3的稀疏注意力机制详细描述了GPT系列的架构演进;
6~8章从底层技术实现的角度讲解了大语言模型的训练策略、数据处理方法,以及如何利用策略优化和人类反馈来进一步提升模型的表现;
第9~10章首先详细讲解了大语言模型在垂直领域的低算力迁移方法,并给出了医疗和司法领域的迁移案例,然后讲解了大模型的中间件编程;
第11章对GPT的未来发展趋势进行预测,探讨数据资源、自回归模型的局限性,以及大语言模型时代具身智能的可行路线。
程 戈
博士生导师,湘潭大学计算机学院·网络空间安全学院教授,湘潭大学技术转移中心副主任,湘潭市京东智能城市与大数据研究院副院长,智慧司法与数字治理湖南省重点实验室副主任,CCF计算法学会执委。大模型领域技术专家和布道者,作为两项科技部国家重点研发子课题的负责人,与成都数之联等多家企业合作推动人工智能在司法领域的落地,带领团队开发了JusticeGPT司法大模型,不同于其他的以提升司法领域知识问答能力为核心的司法大模型,该大模型致力于提升司法文献检索增强生成以及司法文档的多跳信息聚合能力,并通过特定的多任务表征与控制指令生成框架重构司法信息化系统的业务中台,实现司法业务编排以及工作流自动化。连续创业者,先后创立湘潭安道致胜信息科技有限公司等多家企业,曾经作为共同创始人加盟美国WiFi Free llc. ,开发了WiFi Free、WiFi Analyzer 等项目,其中WiFi Free在2014到2015年是Google Play市场相关WiFi分享类应用下载的前三名。作为技术顾问,先后服务于北京捷通华声等多家企业,提供知识表示学习的技术解决方案,为某知名私募开发了基于深度学习的股票趋势预测系统,成为该私募公司的主要量化工具。
(1)作者背景权威:作者是湘潭大学的博导,是科技部国家重点子课题(大模型相关)的负责人,是资深的大模型技术专家和布道者。
(2)作者经验丰富:对ChatGPT、Llama2等大模型有深入研究,带领团队成功训练并部署司法领域的大模型。
(3)全套技术原理:围绕ChatGPT,系统阐述了大模型的工作原理、运行机制、架构设计和底层技术等大模型工程师需要掌握的所有理论知识。
(4)关键应用主题:从大模型的数据处理、预训练到向垂直领域迁移、微调,再到中间件编程,涵盖当下大模型应用的各项关键技术主题。
(5)多位专家推荐:阿里、Google、ChatLaw等企业的多位大模型技术专家高度评价并推荐。
前 言
作为一名高校计算机专业的科研工作者、一名创业的老兵,我在亲身体验了ChatGPT的逻辑推理等能力后,深感震撼。人们在为生成式人工智能所带来的多模态内容创作效率的提升而欢呼时,常常低估ChatGPT的推理能力。这种能力使ChatGPT不仅能作为新一代人机交互的核心,还能作为智能代理来构建自动化和半自动化的工作流程,甚至使它能与工业控制或机器人领域相结合,引发深刻的社会变革。
许多人低估了这种变革的影响力。以当前研发和商业应用的迭代速度来看,我预计在未来三至五年内,这种变革将逐渐渗透到人类生活和生产的各个方面,极大地提升现有的生产力。若要追溯上一个被称为“巨大技术变革”的时代,很多人都会毫不犹豫地说是互联网开创期。这次变革也将重塑内容生产相关的商业模式,改变现有的工作方式,甚至推动生产方式的变革。当然,这还需要依赖下一代大语言模型在内容输出的可控性方面的突破。
本书主要内容
本书能够帮助读者深入理解ChatGPT及其相关技术。全书共11章,从多个角度对ChatGPT进行了全面探讨。第1章深入分析了大语言模型的技术演化、技术栈,并探讨了它对社会的巨大影响。第2章详细阐述了Transformer模型的理论基础和主要组件。第3章深入解析了GPT模型的生成式预训练过程和原理。第4章主要探讨了GPT-2的层归一化、正交初始化和可逆的分词方法等技术,并详细分析了GPT-2的自回归生成过程。第5章介绍了GPT-3的稀疏注意力模式、元学习和基于内容的学习等技术,并对贝叶斯推断在概念分布中的应用进行了深入讨论。第6章详细介绍了大语言模型的预训练数据集和数据处理方法,同时阐述了分布式训练模式和技术路线。第7章深入解析了PPO算法的基本原理。第8章主要阐述了人类反馈强化学习的微调数据集以及PPO在InstructGPT中的应用,并讨论了多轮对话的能力和人类反馈强化学习的必要性。第9章深入探讨了大语言模型在低算力环境中的应用策略。第10章主要介绍了在大语言模型开发中涉及的中间件编程技术。第11章对大语言模型的发展趋势进行了预测和
展望。
本书读者对象
人工智能领域的产品经理。对于希望在自家产品中引入AI功能的产品经理来说,了解ChatGPT等大语言模型的基本原理和运行机制是至关重要的。从本书中,他们可以学习大语言模型的设计思想、构造方式,以及如何将这些模型整合到产品中去。他们也可以借此更好地理解产品的性能瓶颈,从而进行更为精确的产品规划。
人工智能相关专业的研究人员。AI研究者可以将本书作为一本深入了解大语言模型的教科书。无论是Transformer模型的细节,还是GPT模型训练和优化的技巧,书中都进行了详细的介绍。更重要的是,书中还探讨了一些最前沿的研究领域,比如人类反馈强化学习、指令自举标注算法等。
大规模数据处理和分析的工程师。对于面临如何高效处理大规模数据、如何构建分布式训练架构等问题的工程师来说,本书可以提供许多宝贵的建议和思路。例如,第6章对数据处理和分布式训练模式进行了深入的讨论。
AI技术的爱好者和使用者。如果你是一个AI技术的爱好者,或者是一个善于运用技术改善生活的人,本书同样适合你。书中对大语言模型的介绍通俗易懂,可以让你对这个强大的技术有个全面的了解。此外,书中还提供了许多实用的使用技巧和案例,可以将它们直接应用到你的生活或工作中去。
联系作者
鉴于作者的写作水平有限,书中难免存在不妥之处,如在阅读过程中有任何疑问或建议,可以通过邮箱[email protected]联系我。非常期待你的反馈,因为这将对我未来的写作有很大的帮助。希望你在阅读本书的过程中能获得深刻的启示,并加深对大语言模型和人工智能的理解。
致谢
首先,感谢我的家人。在本书的撰写过程中,陪伴他们的时间大大减少,但他们始终给予支持与理解,让我能够全心投入到写作中,无后顾之忧。
其次,感谢机械工业出版社的各位编辑,本书的顺利出版离不开他们的敬业精神和一丝不苟的工作态度。
最后,感谢我的研究生尹智斌、罗琦凡、庾志文、余江楠和杨金,他们为本书绘制了大量的插图。
前言
第1章 人工智能的新里程碑——ChatGPT / 1
1.1 ChatGPT的发展历程 / 1
1.2 ChatGPT的能力 / 3
1.3 大语言模型的技术演化 / 6
1.3.1 从符号主义到连接主义 / 6
1.3.2 Transformer模型 / 7
1.3.3 无监督预训练 / 10
1.3.4 有监督微调 / 11
1.3.5 人类反馈强化学习 / 11
1.4 大语言模型的技术栈 / 12
1.5 大语言模型带来的影响 / 13
1.6 大语言模型复现的壁垒 / 16
1.6.1 算力瓶颈 / 16
1.6.2 数据瓶颈 / 17
1.6.3 工程瓶颈 / 18
1.7 大语言模型的局限性 / 19
1.8 小结 / 20
第2章 深入理解Transformer
模型 / 21
2.1 Transformer模型简介 / 21
2.2 自注意力机制 / 23
2.2.1 自注意力机制的计算
过程 / 23
2.2.2 自注意力机制的本质 / 26
2.2.3 自注意力机制的优势与局
限性 / 28
2.3 多头注意力机制 / 29
2.3.1 多头注意力机制的实现 / 29
2.3.2 多头注意力机制的作用 / 31
2.3.3 多头注意力机制的优化 / 32
2.4 前馈神经网络 / 33
2.5 残差连接 / 35
2.6 层归一化 / 36
2.7 位置编码 / 38
2.7.1 位置编码的设计与实现 / 38
2.7.2 位置编码的变体 / 40
2.7.3 位置编码的优势与
局限性 / 41
2.8 训练与优化 / 41
2.8.1 损失函数 / 41
2.8.2 优化器 / 42
2.8.3 学习率调整策略 / 42
2.8.4 正则化 / 43
2.8.5 其他训练与优化技巧 / 44
2.9 小结 / 46
第3章 生成式预训练 / 47
3.1 生成式预训练简介 / 47
3.2 GPT的模型架构 / 48
3.3 生成式预训练过程 / 50
3.3.1 生成式预训练的目标 / 52
3.3.2 生成式预训练的误差反向
传播过程 / 53
3.4 有监督微调 / 55
3.4.1 有监督微调的原理 / 55
3.4.2 有监督微调的特定任务 / 56
3.4.3 有监督微调的步骤 / 58
3.5 小结 / 59
第4章 无监督多任务与零样本
学习 / 61
4.1 编码器与解码器 / 61
4.2 GPT-2的模型架构 / 64
4.2.1 层归一化 / 65
4.2.2 正交初始化 / 66
4.2.3 可逆的分词方法 / 67
4.2.4 可学习的相对位置编码 / 71
4.3 无监督多任务 / 72
4.4 多任务学习与零样本学习的
关系 / 74
4.5 GPT-2的自回归生成过程 / 76
4.5.1 子词单元嵌入 / 76
4.5.2 自回归过程 / 77
4.6 小结 / 79
第5章 稀疏注意力与基于内容的
学习 / 80
5.1 GPT-3的模型架构 / 81
5.2 稀疏注意力模式 / 83
5.2.1 Sparse Transformer的
特点 / 83
5.2.2 局部带状注意力 / 85
5.2.3 跨层稀疏连接 / 85
5.3 元学习和基于内容的学习 / 86
5.3.1 元学习 / 87
5.3.2 基于内容的学习 / 87
5.4 概念分布的贝叶斯推断 / 90
5.4.1 隐式微调 / 90
5.4.2 贝叶斯推断 / 93
5.5 思维链的推理能力 / 95
5.6 小结 / 99
第6章 大语言模型的预训练
策略 / 100
6.1 预训练数据集 / 100
6.2 预训练数据的处理 / 102
6.3 分布式训练模式 / 104
6.3.1 数据并行 / 105
6.3.2 模型并行 / 106
6.4 分布式训练的技术路线 / 110
6.4.1 Pathways / 111
6.4.2 Megatron-LM / 113
6.4.3 ZeRO / 116
6.5 训练策略案例 / 120
6.5.1 训练框架 / 120
6.5.2 参数稳定性 / 120
6.5.3 训练设置的调整 / 121
6.5.4 BF16优化 / 121
6.5.5 其他因素 / 122
6.6 小结 / 123
第7章 近端策略优化算法 / 124
7.1 传统的策略梯度方法 / 125
7.1.1 策略梯度方法的基本
原理 / 125
7.1.2 重要性采样 / 127
7.1.3 优势函数 / 128
7.2 Actor-Critic算法 / 129
7.2.1 Actor-Critic算法的基本
步骤 / 130
7.2.2 值函数与策略更新 / 131
7.2.3 Actor-Critic算法的问题与
挑战 / 131
7.3 信任域策略优化算法 / 132
7.3.1 TRPO算法的目标 / 132
7.3.2 TRPO算法的局限性 / 133
7.4 PPO算法的原理 / 134
7.5 小结 / 137
第8章 人类反馈强化学习 / 138
8.1 强化学习在ChatGPT迭代中的
作用 / 138
8.2 InstructGPT训练数据集 / 140
8.2.1 微调数据集的来源 / 141
8.2.2 标注标准 / 142
8.2.3 数据分析 / 143
8.3 人类反馈强化学习的训练
阶段 / 145
8.3.1 有监督微调阶段 / 145
8.3.2 奖励建模阶段 / 147
8.3.3 强化学习阶段 / 148
8.4 奖励建模算法 / 149
8.4.1 算法思想 / 149
8.4.2 损失函数 / 150
8.5 PPO算法在InstructGPT中的
应用 / 151
8.6 多轮对话能力 / 153
8.7 人类反馈强化学习的必要性 / 154
8.8 小结 / 156
第9章 大语言模型的低算力领域
迁移 / 157
9.1 指令自举标注 / 157
9.2 人工智能反馈 / 161
9.3 低秩自适应 / 163
9.3.1 模型训练与部署 / 164
9.3.2 秩的选择 / 165
9.4 量化:降低部署的算力要求 / 166
9.5 SparseGPT剪枝算法 / 168
9.6 开源大语言模型的低算力迁移
案例 / 170
9.6.1 基座模型 / 170
9.6.2 自举指令微调的羊驼
系列 / 171
9.6.3 中文解决方案 / 172
9.6.4 医疗领域的迁移实例 / 174
9.6.5 司法领域的迁移实例 / 175
9.7 小结 / 178
第10章 中间件编程 / 180
10.1 补齐短板—LangChain恰逢
其时 / 180
10.2 多模态融合中间件 / 184
10.2.1 任务规划 / 185
10.2.2 模型选择 / 187
10.2.3 任务执行 / 188
10.2.4 响应生成 / 189
10.3 AutoGPT自主代理与任务
规划 / 189
10.4 中间件框架的竞品 / 192
10.5 小结 / 194
第11章 大语言模型的未来
之路 / 195
11.1 强人工智能之路 / 195
11.2 数据资源枯竭 / 198
11.3 自回归模型的局限性 / 200
11.4 具身智能 / 202
11.4.1 具身智能的挑战 / 203
11.4.2 PaLM-E / 204
11.4.3 ChatGPT for Robotics
/ 205
11.5 小结 / 210