《语言之舞:大语言模型应用实战全书》牛亚运【文字版_PDF电子书_】
![]()
| 书名:语言之舞:大语言模型应用实战全书 作者:牛亚运/倪静 出版社:电子工业出版社 译者:无 出版日期:2025-7 页数:348 ISBN:9787121502835 | 0.0 豆瓣评分 | 孔网购买 | 点击喜欢 | 全网资源sm.nayona.cn |
内容简介:
近年来,大语言模型(LLM)技术飞速发展,深刻地改变着我们世界的各行各业,越来越多的人意识到这项技术的重要性,却苦于缺少严谨、优质的一站式学习教程。
《语言之舞:大语言模型应用实战全书》旨在为读者提供全面、深入且实践性强的LLM 学习资源,力求将LLM 的理论知识与实际应用案例相结合,帮助读者更好地理解和掌握这一前沿技术。
《语言之舞:大语言模型应用实战全书》具有重视实践、内容全面且系统、案例丰富且实用、代码规范且易懂、紧跟技术前沿等显着的特色,是现阶段LLM理论与实践学习的集大成者。
《语言之舞:大语言模型应用实战全书》的目标读者包括但不限于:对LLM 感兴趣的科研人员、工程师、学生以及希望了解和应用LLM 的企业管理者。本书也可成为各个院校培训机构AI和大模型专业的教材。
作者简介:
牛亚运(网名:一个处女座的程序猿)
机器学习和大模型算法专家、国内知名AI博主。入选《关键对话:程序员创富》的“50位顶尖创业者和技术人”名单,担任达摩院评测官及多个头部社区的专家博主,多年位居CSDN社区历史贡献榜榜首。累计获得20余项专业资质,包括AI认证、软件着作权、国家发明专利,并在SCI期刊上发表论文。在AI领域的粉丝超200万人,所写文章总浏览量突破6000万人次。
倪静 博士
上海理工大学管理学院人工智能系副教授,长期从事人工智能应用的相关研究,以第一作者/通讯作者身份在SCI/SSCI/CSSCI等期刊上发表论文40余篇;主持、参与并完成国家自然科学基金、教育部人文社科、上海市自然科学基金等多项国家级和省部级相关项目,主持企业横向项目30余项,在人工智能应用、数字孪生、ERP/MEMS、项目管理、优化算法、智能设计/制造、AI+量化交易等方面建树颇丰。
目 录:
第1 章 LLM 构建流程. 1
1.1 数据准备并初步清洗. 2
1.1.1 数据采集. 3
1.1.2 数据过滤. 5
1.1.2.1 低质过滤. 8
1.1.2.2 去重过滤.10
1.1.2.3 内容安全过滤. 12
1.1.3 实战案例:使用Falcon 爬取并清洗互联网数据. 13
1.2 数据预处理.14
1.2.1 数据精洗.14
1.2.2 分词及其预处理.14
1.2.2.1 分词. 15
1.2.2.2 Token 后处理. 19
1.2.3 分词器. 20
1.2.3.1 分词器的概述. 20
1.2.3.2 词汇表扩充技术.23
1.2.3.3 代码实战.24
1.2.4 定义模型的输入.25
1.2.4.1 构建输入特征. 25
1.2.4.2 Token 处理阶段的对比.26
1.3 模型预训练与评估.27
1.3.1 模型搭建.27
1.3.1.1 建模任务及其模型架构选择. 28
1.3.1.2 模型框架选择. 30
1.3.2 模型预训练与优化. 31
1.3.2.1 模型预训练. 31
1.3.2.2 模型超参数调优.33
1.3.2.3 模型训练优化及其常用策略. 36
1.3.2.4 模型训练优化之并行提速. 37
1.3.2.5 拓展的并行技术之ZeRO. 42
1.3.2.6 拓展的并行技术之 FSDP. 48
1.3.2.7 拓展的并行技术之MoE 并行. 52
1.3.2.8 模型训练优化之降存提速六大技巧综述. 53
1.3.2.9 降存之词汇表裁剪. 53
1.3.2.10 降存之梯度检查点. 54
1.3.2.11 同时降存、提速之混合精度训练.56
1.3.2.12 同时提速、降存之数据压缩. 60
1.3.2.13 同时提速、降存之量化感知训练 61
1.3.2.14 提速之梯度累积. 63
1.3.3 预训练后评估. 65
1.3.3.1 概述. 65
1.3.3.2 代码实战:基准评估案例(C-Eval). 67
1.3.3.3 代码实战:人工评估案例. 68
1.3.3.4 代码实战:大模型自动评估案例(BELLE). 69
1.4 模型微调. 70
1.4.1 LLM 知识更新概述. 70
1.4.2 模型微调策略. 72
1.4.2.1 指令微调.74
1.4.2.2 对齐微调. 78
1.4.2.3 代码实战.84
1.4.3 模型微调技术. 86
1.4.3.1 参数高效微调. 86
1.4.3.2 适配器微调. 88
1.4.3.3 前缀微调.90
1.4.3.4 P-Tuning.92
1.4.3.5 Prompt-Tuning.94
1.4.3.6 P-Tuning V2. 98
1.4.3.7 LoRA. 100
1.4.3.8 常用的参数高效微调方法对比.106
1.5 模型推理与优化. 109
1.5.1 模型推理概述. 109
1.5.2 推理阶段可调参数. 111
1.5.3 模型推理加速技术. 112
1.5.3.1 模型量化技术. 114
1.5.3.2 模型剪枝技术. 119
1.5.3.3 模型蒸馏技术. 121
1.5.3.4 KV 缓存技术. 126
第2 章 LLM 的部署与监控. 128
2.1 模型部署. 129
2.1.1 模型部署概述. 129
2.1.2 分布式环境配置.131
2.1.3 Docker 部署实战.133
2.2 模型监控与维护. 133
2.3 实战案例. 135
第3 章 LLM 的微调与推理部署实战案例. 137
3.1 基于LLaMA-3 系列模型实战.137
3.1.1 微调实战.138
3.1.1.1 官方Demo 案例:利用LoRA 微调LLaMA-3-8B-Instruct 并生成推理对话. 138
3.1.1.2 基于Colab 平台实现LoRA 微调LLaMA-3-8B-Instruct-bnb-4bit.139
3.1.1.3 采用LLaMA-Factory 工具GUI 的方式微调LLaMA-3-8B-Instruct.139
3.1.1.4 基于Colab 平台利用Unsloth 优化框架实现LoRA 微调LLaMA-3-8B-bnb.140
3.1.2 推理部署实战. 140
3.1.2.1 快速使用LLaMA-3-8B-Instruct进行推理测试. 140
3.1.2.2 LLaMA-3-8B-Instruct WebDemo部署. 140
3.1.2.3 采用FastAPI 部署与调用LLaMA-3-8B-Instruct. 141
3.1.2.4 基于LM Studio 结合LobeChat 框架部署LLaMA-3 模型. 142
3.1.2.5 基于OLLaMA 后端框架依次结合不同的前端框架搭建RAG. 145
3.1.2.6 基于GPT4ALL 框架及其量化后部署. 148
3.1.3 在线测试实战. 150
3.2 基于ChatGLM-3 系列模型实战.150
3.2.1 微调实战.151
3.2.1.1 官方Demo 案例:利用P-TuningV2 和LoRA 在单卡GPU 环境下进行微调.151
3.2.1.2 基于官方Demo 微调:多卡全参数微调/ 单卡P-Tuning V2 微调.152
3.2.1.3 在云服务器(4090-24GB)上采用P-Tuning V2 微调. 152
3.2.1.4 基于LLaMA-Factory 框架并采用GUI 方式微调. 154
3.2.2 推理部署实战. 155
3.2.2.1 采用官方Demo 提供的CLI 形式实现对话交互. 155
3.2.2.2 采用官方Demo 的Web 界面实现对话模式、工具模式、代码解释器模式. 156
3.2.2.3 基于LangChain 框架实现ChatGLM-3 的工具调用. 158
3.2.3 在线测试实战. 159
3.2.3.1 采用官方API 接口方式调用. 159
3.2.3.2 Web 在线体验. 159
3.3 基于GPT-4o 模型实战. 159
3.3.1 基于官方API 进行在线推理测试.159
3.3.2 基于官方Web 界面进行在线测试.160
3.4 基于GLM-4 系列模型实战. 163
3.4.1 微调实战.163
3.4.1.1 基于官方Demo 案例依次采用LoRA、P-Tuning V2、SFT 实现微调. 163
3.4.1.2 在云服务器(4090-24GB)上采用LoRA 或P-Tuning V2 实现对话微调. 164
3.4.2 推理部署实战. 164
3.4.2.1 基于官方Demo 实现基础用法:基于Transformers 或vLLM 后端并采用GLM-4-9B 模型实现对话交互.164
3.4.2.2 基于官方Demo 实现复杂用法:基于Web 方式实现GLM-4-9B模型交互与功能拓展. 165
3.4.2.3 基于云服务器(4090-24GB)实现一键部署开启服务并交互测试.167
3.4.3 在线测试实战. 167
3.4.3.1 采用官方API 接口方式调用ChatGLM-4-plus. 167
3.4.3.2 Web 在线体验. 168
3.5 基于Qwen 系列模型实战. 168
3.5.1 微调实战:基于LLaMA-Factory框架微调Qwen-2 模型.169
3.5.2 推理部署实战. 169
3.5.2.1 基于Transformer 架构实现测试Qwen-2.5-7B-Instruct 模型. 169
3.5.2.2 基于OLLaMA 部署Qwen-2.5-7B模型. 170
3.5.3 在线测试实战. 171
3.5.3.1 API 接口调用. 171
3.5.3.2 Web 在线体验. 171
3.6 基于DeepSeek-R1 系列模型实战.171
3.6.1 微调实战.171
3.6.1.1 基于Mini-DeepSeek-R1 项目实现.171
3.6.1.2 利用云服务器. 172
3.6.2 推理部署实战. 173
3.6.2.1 基于官方Demo 实现基础用法.173
3.6.2.2 基于LangChain 框架实现. 173
3.6.2.3 基于OLLaMA 和Dify 创建DeepSeek-R1 的个性化应用. 174
3.6.2.4 基于OLLaMA 和AnythingLLM创建DeepSeek-R1 个性化应用.175
3.6.3 在线测试实战. 177
3.6.3.1 API 接口调用. 177
3.6.3.2 Web 在线体验. 177
第4 章 LLM 项目的构建与应用 178
4.1 生成式AI 项目的生命周期. 178
4.2 企业级LLM 构建与实现的通用流程.184
4.2.1 如何选择优质的应用场景. 185
4.2.1.1 LLM 在To B 领域落地应用的现有场景实践.186
4.2.1.2 LLM 的产品化实践流程.187
4.2.1.3 LLM 落地实践中的产品侧与技术侧. 187
4.2.2 如何实现企业级ChatGPT. 189
4.2.2.1 选择基座模型. 189
4.2.2.2 准备数据.191
4.2.2.3 准备环境.193
4.2.2.4 模型迁移常用方法. 194
4.2.2.5 模型评估.195
4.2.2.6 评价模型.197
4.2.2.7 模型修正.197
4.2.2.8 模型落地.197
4.3 基于LLM 的研究方向. 198
4.3.1 NLP 任务.199
4.3.2 信息检索和推荐系统. 199
4.3.3 多模态和知识图谱增强.199
4.3.4 基于LLM 的智能体. 200
4.4 基于LLM 的领域应用. 200
4.5 基于LLM 的企业级需求和应用场景.201
第5 章 提示设计. 203
5.1 提示工程概述. 203
5.2 提示的设计要素和策略.207
5.2.1 提示的设计要素.207
5.2.2 提示内容的设计策略. 209
5.3 提示设计的方法论.211
5.3.1 ICL.212
5.3.2 CoT.214
5.3.3 PCTS. 217
5.3.4 对比ICL、CoT、PCTS. 218
5.3.5 提示设计方法论分类. 219
5.4 提示设计实践指南和优秀框架.220
5.5 MCP. 221
5.5.1 提示工程痛点与MCP 出现. 221
5.5.2 MCP 核心内容. 222
5.5.3 MCP 的典型应用场景. 223
5.5.4 MCP 的使用经验与技巧. 223
第6 章 LLM 的进阶与增强. 225
6.1 LLM 的局限性及其解决方案. 226
6.1.1 LLM 幻觉现象简介与解决方法.228
6.1.2 LLM 有毒性现象简介与解决方法.230
6.1.3 LLM 虚假信息现象简介与解决方法.231
6.2 RAG. 232
6.2.1 RAG 概述.232
6.2.2 RAG 工程化系统架构和开发组件. 242
6.2.3 RAG 的失败案例及其优化. 244
6.2.3.1 RAG 的失败案例. 244
6.2.3.2 RAG 宏观技术角度的优化. 246
6.2.3.3 RAG 微观策略角度的优化. 248
6.2.3.4 探究并解决RAG 框架下PDF 场景的结构化数据提取问题. 262
6.2.3.5 代码实战.267
6.2.4 RAG 的发展及其挑战. 269
6.2.4.1 RAG 发展的三阶段. 269
6.2.4.2 RAG 面临的挑战与未来发展趋势.270
6.2.5 RAG 案例实战. 271
6.2.5.1 基于LangChain 框架实现RAG.271
6.2.5.2 基于LangChain-Chatchat 框架实现RAG. 273
6.2.6.3 基于LLaMAIndex 框架实现RAG 274
6.2.5.4 基于LocalGPT 框架实现RAG.275
6.2.5.5 基于OLLaMA+AnythingLLM 框架实现RAG. 275
6.2.5.6 基于OLLaMA+Dify 框架实现RAG. 277
6.3 ETA. 278
6.3.1 ETA 概述.278
6.3.2 ETA 实战.284
6.3.2.1 基于OpenAI 官方案例实现工具调用能力.284
6.3.2.2 基于GLM-4 官方案例实现工具调用能力.285
6.3.2.3 基于Qwen 官方案例实现工具调用能力. 285
6.3.2.4 基于 LangChain 框架和GPT-4o实现多个工具调用. 285
6.3.2.5 基于LangGraph 框架和Qwen 模型实现GraphETA.286
6.3.3 伯克利函数调用排行榜.287
6.4 智能体. 287
6.4.1 智能体概述. 287
6.4.1.1 智能体系统模块.291
6.4.1.2 智能体框架工程化. 295
6.4.1.3 未来挑战.296
6.4.2 智能体常用能力.297
6.4.2.1 能力概览及其实现方法.297
6.4.2.2 能力域分类. 299
6.4.3 智能体设计的思想和主流模式.299
6.4.3.1 ReAct Agent 简介. 301
6.4.3.2 ReWOO Agent 简介. 305
6.4.3.3 DERA Agent 简介. 306
6.4.3.4 智能体设计的三大范式.307
6.4.4 智能体应用的分类. 308
6.4.5 智能体实战. 309
6.4.5.1 模型推理:基于LangChain 框架并结合GPT-4o 和GPT-4 实现Tool Agent. 309
6.4.5.2 模型推理:基于LangChain 框架实现ReAct Agent. 309
6.4.5.3 模型推理:基于LangChain 框架实现KG-RAG Agent. 310
6.4.5.4 基于LangChain 框架和FastAPI部署Tool Agent 服务. 310
6.5 长上下文建模. 311
6.5.1 大窗口技术概述.311
6.5.2 长上下文建模实战. 315
6.6 技术探讨与分析. 316
6.6.1 RAG 技术与大窗口技术的争论——冲突还是共生. 316
6.6.2 智能体技术的自主性与ETA 技术的可控性权衡的争论. 318
第7 章 LLM 的训练/ 推理框架、部署工具和提示库. 321
7.1 LLM 的开发框架. 321
7.1.1 侧重数据处理的库或框架. 321
7.1.2 侧重模型构建的库或框架. 322
7.2 LLM 的训练、评估、微调和推理框架.324
7.2.1 侧重训练的库或框架. 324
7.2.2 侧重评估的库或框架. 326
7.2.3 侧重微调的库或框架. 326
7.2.4 侧重推理的库或框架. 328
7.3 LLM 的部署和应用工具.330
7.3.1 Web 框架和API 服务. 330
7.3.2 请求和并发处理.331
7.3.3 用户界面库. 331
7.3.4 实验跟踪和可视化. 332
7.3.5 容器化和编排. 332
7.3.6 高级的LLM 部署和服务工具. 333
7.4 LLM 的向量数据库. 334
浏览器不支持脚本!
摘要:围绕《语言之舞:大语言模型应用实战全书》及其作者牛亚运展开,本文试图从理论价值、技术实践、应用场景以及行业影响四个层面,对这部作品进行系统而深入的解读。作为一本聚焦大语言模型的实战型著作,它不仅梳理了人工智能语言模型的发展脉络,更通过大量案例展示了模型在真实世界中的落地方式。文章将从内容结构、思想内核、实践方法与未来启示等方面,全面呈现这本书的学术深度与现实意义,揭示牛亚运如何通过“语言之舞”的隐喻,将复杂的技术逻辑转化为可理解、可应用的知识体系。通过对全书的多维阐述,读者可以更清晰地认识大语言模型的能力边界、应用潜力以及对社会与产业的深远影响,从而为学习、研究和实践人工智能语言技术提供有价值的参考。
一、理论体系的系统构建
《语言之舞:大语言模型应用实战全书》首先展现出的是一种系统化的理论构建能力。牛亚运并未停留在零散知识点的堆砌,而是从语言模型的发展历史切入,逐步引导读者理解当下主流大模型的技术根基。这种循序渐进的叙述方式,使读者能够在宏观视角中把握技术演进逻辑。
在理论阐述中,作者注重对核心概念的拆解与重组。例如对“语言”“模型”“智能”这些看似抽象的词汇进行重新定义,使其不再是高高在上的学术术语,而是可以被工程实践验证的技术要素。这种理论转化能力,是本书的重要价值所在。
同时,牛亚运强调理论并非终点,而是实践的起点。他在书中多次指出,只有理解模型背后的原理,才能在应用过程中做出正确决策。这种将理论与实践紧密结合的思想,为读者构建了一条清晰的学习路径。
二、实战导向的技术解析
本书最突出的特点之一,是其鲜明的实战导向。牛亚运通过大量代码示例、流程图和操作说明,将复杂的大语言模型应用过程拆解为可执行的步骤。这种写作方式,大大降低了技术门槛,使更多读者能够参与到模型应用中来。
在具体技术解析中,作者不仅讲“怎么做”,还深入分析“为什么这样做”。例如在模型微调、提示工程等关键环节,他会结合实际项目经验,说明不同方案可能带来的效果差异。这种经验型知识,往往是其他理论书籍中难以获得的。
此外,书中还特别关注实际开发中常见的问题与误区。牛亚运通过案例复盘的方式,提醒读者在性能优化、数据处理和安全合规方面需要注意的细节,使实战内容更具现实指导意义。
三、多元场景的应用展示
《语言之舞:大语言模型应用实战全书》并未将视角局限于单一行业,而是广泛探讨了语言模型在不同场景中的应用潜力。从内容创作到智能客服,从数据分析到教育辅助,书中展示了模型能力的多样化形态。
在这些应用案例中,牛亚运强调“场景适配”的重要性。他指出,大语言模型并非万能工具,只有结合具体业务需求进行定制化设计,才能真正发挥其价值。这一观点帮助读者避免对技术产生不切实际的期待。
通过对多个行业场景的深入分析,作者还揭示了语言模型在推动组织效率提升、创新模式变革方面的作用。这些案例不仅展示了技术成果,也反映了人工智能对社会运行方式的潜在影响。
四、行业视角与未来启示
站在更宏观的行业视角,牛亚运在书中对大语言模型的未来发展进行了理性展望。他既肯定了模型在智能化进程中的关键作用,也清醒地指出其在伦理、安全和可控性方面面临的挑战。
作者通过对国内外技术趋势的分析,帮助读者理解当前大模型竞争格局及其背后的产业逻辑。这种行业洞察,使本书不仅是一部技术手册,也是一部观察人工智能生态的参考读物。
更重要的是,牛亚运鼓励读者以开放心态拥抱变化。他认为,大语言模型的发展仍处于快速演进阶段,持续学习与跨界思维将成为未来从业者的重要能力。这一观点为读者提供了长远的职业与学习启示。
总结:
综合来看,《语言之舞:大语言模型应用实战全书》是一部兼具理论深度与实践价值的作品。牛亚运通过清晰的结构设计和生动的案例分析,将复杂的大语言模型技术转化为可理解、可操作的知识体系,为读者搭建了一座通往人工智能应用世界的桥梁。
在技术快速迭代的时代背景下,这本书不仅帮助读者掌握当下的应用方法,更引导他们思考技术与社会、产业之间的关系。正是这种兼顾当下与未来的视角,使《语言之舞:大语言模型应用实战全书》具有持续的阅读价值。
本文由nayona.cn整理
联系我们

关注公众号

微信扫一扫
支付宝扫一扫 