大模型实战:微调、优化与私有化部署
全新正版 假一赔十 可开发票
¥
71.49
7.2折
¥
99
全新
库存15件
作者庄建等 著
出版社电子工业出版社
ISBN9787121493232
出版时间2024-12
装帧平装
开本其他
定价99元
货号1203469004
上书时间2024-12-22
商品详情
- 品相描述:全新
- 商品描述
-
目录
目 录
第1章 从零开始大模型之旅1
1.1 对话机器人历史1
1.1.1 人机同频交流1
1.1.2 人机对话发展历史2
1.2 人工智能4
1.2.1 从感知到创造4
1.2.2 通用人工智能7
1.2.3 发展方向9
1.2.4 本书焦点10
1.3 本章小结11
第2章 大模型私有化部署12
2.1 CUDA环境准备12
2.1.1 基础环境12
2.1.2 大模型运行环境13
2.1.3 安装显卡驱动14
2.1.4 安装CUDA18
2.1.5 安装cuDNN24
2.2 深度学习环境准备26
2.2.1 安装Anaconda环境26
2.2.2 服务器环境下的环境启动30
2.2.3 安装PyTorch32
2.3 GLM-3和GLM-434
2.3.1 GLM-3介绍34
2.3.2 GLM-4介绍36
2.4 GLM-4私有化部署36
2.4.1 创建虚拟环境37
2.4.2 下载GLM-4项目文件37
2.4.3 安装项目依赖包39
2.4.4 下载模型权重40
2.5 运行GLM-4的方式41
2.5.1 基于命令行的交互式对话42
2.5.2 基于Gradio库的Web端对话应用42
2.5.3 OpenAI风格的API调用方法43
2.5.4 模型量化部署45
2.6 本章小结47
第3章 大模型理论基础49
3.1 自然语言领域中的数据49
3.1.1 时间序列数据49
3.1.2 分词50
3.1.3 Token53
3.1.4 Embedding53
3.1.5 语义向量空间54
3.2 语言模型历史演进55
3.2.1 语言模型历史演进55
3.2.2 统计语言模型57
3.2.3 神经网络语言模型58
3.3 注意力机制58
3.3.1 RNN模型58
3.3.2 Seq2Seq模型60
3.3.3 Attention注意力机制62
3.4 Transformer架构65
3.4.1 整体架构65
3.4.2 Self-Attention66
3.4.3 Multi-Head Attention68
3.4.4 Encoder68
3.4.5 Decoder70
3.4.6 实验效果71
3.5 本章小结72
第4章 大模型开发工具73
4.1 Huggingface73
4.1.1 Huggingface介绍73
4.1.2 安装Transformers库77
4.2 大模型开发工具79
4.2.1 开发范式79
4.2.2 Transformers库核心设计80
4.3 Transformers库详解84
4.3.1 NLP任务处理全流程84
4.3.2 数据转换形式86
4.3.3 Tokenizer88
4.3.4 模型加载和解读92
4.3.5 模型的输出94
4.3.6 模型的保存97
4.4 全量微调训练方法98
4.4.1 Datasets库和Accelerate库98
4.4.2 数据格式101
4.4.3 数据预处理103
4.4.4 模型训练的参数106
4.4.5 模型训练108
4.4.6 模型评估110
4.5 本章小结115
第5章 高效微调方法117
5.1 主流的高效微调方法介绍117
5.1.1 微调方法介绍117
5.1.2 Prompt的提出背景119
5.2 PEFT库快速入门121
5.2.1 介绍121
5.2.2 设计理念122
5.2.3 使用125
5.3 Prefix Tuning129
5.3.1 背景129
5.3.2 核心技术解读129
5.3.3 实现步骤131
5.3.4 实验结果134
5.4 Prompt Tuning135
5.4.1 背景135
5.4.2 核心技术解读136
5.4.3 实现步骤137
5.4.4 实验结果139
5.5 P-Tuning140
5.5.1 背景140
5.5.2 核心技术解读141
5.5.3 实现步骤142
5.5.4 实验结果144
5.6 P-Tuning V2145
5.6.1 背景145
5.6.2 核心技术解读146
5.6.3 实现步骤147
5.6.4 实验结果149
5.7 本章小结150
第6章 LoRA微调GLM-4实战151
6.1 LoRA151
6.1.1 背景151
6.1.2 核心技术解读152
6.1.3 LoRA的特点153
6.1.4 实现步骤155
6.1.5 实验结果157
6.2 AdaLoRA157
6.2.1 LoRA的缺陷157
6.2.2 核心技术解读158
6.2.3 实现步骤160
6.2.4 实验结果161
6.3 QLoRA162
6.3.1 背景162
6.3.2 技术原理解析163
6.4 量化技术165
6.4.1 背景165
6.4.2 量化技术分类165
6.4.3 BitsAndBytes库166
6.4.4 实现步骤166
6.4.5 实验结果169
6.5 本章小结169
第7章 提示工程入门与实践170
7.1 探索大模型潜力边界170
7.1.1 潜力的来源170
7.1.2 Prompt的六个建议171
7.2 Prompt实践173
7.2.1 四个经典推理问题173
7.2.2 大模型原始表现175
7.3 提示工程177
7.3.1 提示工程的概念177
7.3.2 Few-shot177
7.3.3 通过思维链提示法提升模型推理能力180
7.3.4 Zero-shot-CoT提示方法181
7.3.5 Few-shot-CoT提示方法185
7.4 Least-to-Most Prompting(LtM提示方法)188
7.4.1 Least-to-Most Prompting基本概念188
7.4.2 Zero-shot-LtM提示过程189
7.4.3 效果验证191
7.5 提示使用技巧192
7.5.1 B.R.O.K.E提示框架193
7.5.2 C.O.A.S.T提示框架195
7.5.3 R.O.S.E.S提示框架196
7.6 本章小结197
第8章 大模型与中间件198
8.1 AI Agent198
8.1.1 从AGI到Agent198
8.1.2 Agent概念199
8.1.3 AI Agent应用领域200
8.2 大模型对话模式201
8.2.1 模型分类201
8.2.2 多角色对话模式203
8.3 多角色对话模式实战204
8.3.1 messages参数结构及功能解释204
8.3.2 messages参数中的角色划分205
8.4 Function Calling功能207
8.4.1 发展历史208
8.4.2 简单案例209
8.5 实现多函数214
8.5.1 定义多个工具函数214
8.5.2 测试结果217
8.6 Bing搜索嵌入LLM217
8.6.1 昙花一现的Browsing with Bing217
8.6.2 需求分析218
8.6.3 Google搜索API的获取和使用220
8.6.4 构建自动搜索问答机器人223
8.7 本章小结225
第9章 LangChain理论与实战226
9.1 整体介绍226
9.1.1 什么是LangChain226
9.1.2 意义227
9.1.3 架构228
9.2 Model I/O229
9.2.1 架构229
9.2.2 LLM230
9.2.3 ChatModel233
9.2.4 Prompt Template234
9.2.5 实战:LangChain接入本地GLM237
9.2.6 Parser239
9.3 Chain240
9.3.1 基础概念240
9.3.2 常用的Chain241
9.4 Memory249
9.4.1 基础概念249
9.4.2 流程解读250
9.4.3 常用Memory251
9.5 Agents257
9.5.1 理论257
9.5.2 快速入门259
9.5.3 架构262
9.6 LangChain实现Function Calling266
9.6.1 工具定义266
9.6.2 OutputParser267
9.6.3 使用268
9.7 本章小结269
第10章 实战:垂直领域大模型270
10.1 QLoRA微调GLM-4270
10.1.1 定义全局变量和参数270
10.1.2 红十字会数据准备271
10.1.3 训练模型283
10.2 大模型接入数据库291
10.2.1 大模型挑战291
10.2.2 数据集准备292
10.2.3 SQLite3293
10.2.4 获取数据库信息294
10.2.5 构建tools信息297
10.2.6 模型选择298
10.2.7 效果测试299
10.3 LangChain重写查询300
10.3.1 环境配置300
10.3.2 工具使用301
10.4 RAG检索增强302
10.4.1 自动化数据生成303
10.4.2 RAG搭建303
10.5 本章小结307
参考文献308
内容摘要
人工智能已在多个行业得到成功应用,大模型的应用已成为突破性进展的重要驱动力,而在特定垂直领域,如医疗、法律、金融等,大模型微调面临独特的挑战和需求。本书致力于大型语言模型微调与应用的关键技术,本书探讨两个热门应用方向:大模型的知识专业性和时效性。本书剖析了垂直领域大模型训练的背景及意义,探讨大模型在垂直领域的迁移学习、应用部署与效果评估等核心内容,结合实际案例,深入浅出地解析了每个环节的关键问题和解决方案,引领读者了解行业内最新研究成果与发展趋势,方便读者快捷地嫁接到各个行业。
— 没有更多了 —
以下为对购买帮助不大的评价