• 多模态大模型:算法、应用与微调:algorithms, applications, and fine-tuning9787111754886
21年品牌 40万+商家 超1.5亿件商品

多模态大模型:算法、应用与微调:algorithms, applications, and fine-tuning9787111754886

正版图书,可开发票,请放心购买。

89.25 7.5折 119 全新

库存93件

广东广州
认证卖家担保交易快速发货售后保障

作者刘兆峰

出版社机械工业出版社

ISBN9787111754886

出版时间2023-06

装帧平装

开本16开

定价119元

货号17106691

上书时间2024-09-13

亿临书店

四年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
目录
目    录 前言 第一篇  算法原理 第1章  Transformer模型  2 1.1  Seq2Seq结构  2 1.1.1  分词器  2 1.1.2  编码器–解码器结构  6 1.1.3  注意力机制  9 1.1.4  实战:日期转换  13 1.2  Transformer模型介绍  18 1.2.1  位置编码  18 1.2.2  模型架构  24 1.2.3  标准化和残差连接  32 1.2.4  线性层和softmax层  36 1.2.5  损失函数  36 1.2.6  实战:日期转换  37 1.2.7  小结  45 1.3  ViT模型介绍  46 1.3.1  注意力机制在图像上的 应用  47 1.3.2  ViT模型架构  48 1.3.3  大数据预训练  50 1.3.4  ViT模型训练实践  52 1.4  本章总结  54 第2章  GPT系列模型  55 2.1  GPT-1  55 2.1.1  语言模型  56 2.1.2  训练框架  56 2.1.3  模型效果分析  62 2.2  GPT-2  63 2.2.1  模型架构分析  64 2.2.2  构造训练数据集  65 2.2.3  模型效果分析  65 2.3  GPT-3  66 2.3.1  上下文学习  67 2.3.2  构造训练数据集  67 2.3.3  训练停止判定  69 2.3.4  重要潜力  69 2.4  GPT-3.5  70 2.4.1  代码生成模型Codex  71 2.4.2  强化学习  76 2.4.3  ChatGPT的“孪生兄弟”:InstructGPT  85 2.4.4  RLAIF  96 2.5  GPT-4  97 2.5.1  GPT-4的非凡表现  98 2.5.2  基于规则的奖励模型  99 2.5.3  多模态架构  101 2.5.4  训练流程  103 2.5.5  局限性  104 2.6  语言模型的未来  104 2.6.1  自我学习与自我核实  105 2.6.2  稀疏专家模型  106 2.7  GPT系列的其他应用  107 2.7.1  MiniGPT-4  107 2.7.2  minGPT与nanoGPT  108 2.7.3  AutoGPT与AgentGPT  109 2.8  本章总结  109 第3章  深度生成模型  111 3.1  从自编码器到变分自编码器  111 3.1.1  自编码器  111 3.1.2  变分自编码器  116 3.2  生成对抗网络  119 3.2.1  网络架构  119 3.2.2  算法描述  120 3.2.3  实战:手写数字图像 生成  122 3.2.4  衍生应用  125 3.3  文本与图像的桥梁:CLIP  129 3.3.1  介绍  129 3.3.2  训练与推理  129 3.3.3  实战:图像文本匹配  132 3.3.4  CLIP的局限性  134 3.4  稳定扩散模型:Stable Diffusion  135 3.4.1  基本组件  135 3.4.2  扩散原理  136 3.4.3  数据集构建  139 3.4.4  流程梳理  141 3.4.5  实战:图像生成  144 3.4.6  Stable Diffusion升级  147 3.5  本章总结  148 第4章  预训练模型  150 4.1  大模型的涌现能力  151 4.1.1  缩放法则  151 4.1.2  涌现能力  152 4.2  模型参数量估算  153 4.3  通信数据量分析  155 4.3.1  点对点通信  156 4.3.2  集群通信  157 4.4  分布式训练  161 4.4.1  基本概念  161 4.4.2  数据并行  163 4.4.3  模型并行  171 4.4.4  混合并行  177 4.4.5  混合精度训练  178 4.5  DeepSpeed  180 4.5.1  ZeRO  181 4.5.2  ZeRO-Offload  185 4.5.3  ZeRO-Infinity  189 4.6  模型即服务平台  190 4.6.1  ModelScope  191 4.6.2  Hugging Face  192 4.7  本章总结  196 第二篇  应用实战 第5章  文本生成应用实战:利用ChatPDF与文件对话  198 5.1  大模型的落地应用  198 5.1.1  外部增强:领域工具 增强  200 5.1.2  提示词工程  201 5.1.3  模型微调  207 5.2  GLM系列模型  207 5.2.1  GLM与GLM-130B  209 5.2.2  ChatGLM、ChatGLM-6B 和ChatGLM2-6B  211 5.2.3  ChatGLM与ChatGPT的 区别  212 5.3  参数高效微调  213 5.3.1  Adapter Tuning  213 5.3.2  Prompt Tuning  214 5.3.3  Prefix-Tuning  215 5.3.4  P-Tuning  218 5.3.5  P-Tuning v2  219 5.3.6  ChatGLM2-6B的 P-Tuning v2微调  220 5.4  大语言模型应用框架: LangChain  222 5.4.1  快速开始  223 5.4.2  基本概念  226 5.5  ChatGLM金融大模型挑战赛  232 5.5.1  任务目标  232 5.5.2  环境准备:SQLite  234 5.5.3  问题分析  235 5.5.4  NL2SQL  245 5.5.5  DocTree  261 5.5.6  集成  271 5.6  本章总结  275 第6章  文本生成算法实战:DeepSpeed-Chat  276 6.1  ZeRO++  276 6.1.1  权重量化  277 6.1.2  分层切片  278 6.1.3  梯度量化  278 6.1.4  ZeRO++与DeepSpeed-Chat结合  279 6.2  DeepSpeed-Chat快速开始  280 6.3  DeepSpeed-Chat的RLHF训练  281 6.3.1  数据收集与整理  282 6.3.2  有监督微调  284 6.3.3  奖励模型微调  287 6.3.4  RLHF微调  288 6.3.5  模型部署与测试  290 6.4  DeepSpeed混合引擎  290 6.5  本章总结  291 第7章  图像生成算法实战:Stable Diffusion微调  293 7.1  LoRA参数高效微调技术  293 7.1.1  奇异值分解  294 7.1.2  LoRA详解  295 7.2  用于Diffusers的LoRA微调  297 7.2.1  数据收集  297 7.2.2  训练参数配置  300 7.2.3  模型训练与测试  300 7.3  Stable Diffusion WebUI  302 7.3.1  安装  304 7.3.2  模型介绍  304 7.3.3  参数介绍  307 7.3.4  其他应用  310 7.4  可控扩散模型:ControlNet  313 7.4.1  原理介绍  314 7.4.2  安装插件并使用  316 7.5  本章总结  321 第8章  代码生成算法实战: Code Llama微调  322 8.1  任务介绍  322 8.1.1  代码生成模型的应用 场景  323 8.1.2  相关模型介绍  327 8.1.3  常用代码数据集  331 8.2  Llama 2  336 8.2.1  模型介绍  336 8.2.2  预训练  336 8.2.3  有监督微调  337 8.2.4  奖励模型训练  338 8.2.5  迭代微调  339 8.2.6  多轮对话一致性  339 8.3  算法竞赛大语言模型  340 8.3.1  数据获取  340 8.3.2  数据清洗  348 8.3.3  text-dedup  351 8.3.4  模型训练  353 8.4  本章总结  358 第9章  综合应用实战:构建“漫画家”生成多模态漫画  360 9.1  应用介绍  361 9.1.1  需求分析  361 9.1.2  功能设计  363 9.2  功能实现选型  365 9.2.1  相关AI模型  365 9.2.2  后端技术栈  372 9.2.3  小结  377 9.3  相关模型部署  378 9.3.1  Stable Diffusion WebUI 部署  378 9.3.2  语音识别模型:Whisper  381 9.3.3  语音合成模型: Sambert-Hifigan  383 9.4  后端应用搭建  386 9.4.1  创建项目  387 9.4.2  配置应用  388 9.4.3  基本功能开发  390 9.5  本章总结  403

内容摘要
本书详尽地覆盖了多模态大模型的算法原理和应用实战,提供了丰富的微调技术细节和实际案例,适合对多模态大模型有兴趣的技术人员深入学习及应用。
本书分为两篇:
算法原理篇 详细介绍了优选的深度学习模型,包括Transformer、GPT系列、深度生成模型,从基本架构、训练方法到特定应用,包括但不限于Seq2Seq结构、位置编码、注意力机制、残差连接、变分自编码器、GAN、ViT、CLIP、Stable Diffusion、各模型训练实践的知识点。此外,探讨了预训练模型的涌现能力、模型参数和通信数据量的估算,以及分布式训练的各种技术,如数据并行、模型并行和混合精度训练等。
应用实战篇 聚焦于深度学习模型的实际应用,特别是文本和图像生成,以及代码生成的应用实战。通过具体实战项目,如利用Stable Diffusion进行图像生成和Code Llama进行代码生成,提供了微调技术的详细细节,介绍了LangChain等大模型应用框架。

主编推荐
(1)内容权威:作者为一线的LLM研究及实践者,本书受到多位研究专家、科技公司管理者的好评及推荐。全面覆盖了多模态大模型的算法原理和应用实战,从基础到高级,涵盖Transformer、GPT系列、深度生成模型等前沿技术,详尽介绍了预训练模型、分布式训练等重要内容。 (2)质量可靠:书中包含丰富的项目案例。通过具体实战项目,如Stable Diffusion进行图像生成和Code Llama进行代码生成,展示了大模型的实际部署和优化过程,并强调了微调技术的细节,确保读者能够在实际操作中有效应用所学知识。 (3)收获切实:通过阅读本书,你将:1)深入了解多模态大模型的架构、原理及应用;2)掌握大模型的实际部署和优化技巧;3)获得详细的微调技术指导,提升在深度学习模型领域的实战能力和职业竞争力。

精彩内容
本书详尽地覆盖了多模态大模型的算法原理和应用实战,提供了丰富的微调技术细节和实际案例,适合对多模态大模型有兴趣的技术人员深入学习及应用。 本书分为两篇: 算法原理篇 详细介绍了优选的深度学习模型,包括Transformer、GPT系列、深度生成模型,从基本架构、训练方法到特定应用,包括但不限于Seq2Seq结构、位置编码、注意力机制、残差连接、变分自编码器、GAN、ViT、CLIP、Stable Diffusion、各模型训练实践的知识点。此外,探讨了预训练模型的涌现能力、模型参数和通信数据量的估算,以及分布式训练的各种技术,如数据并行、模型并行和混合精度训练等。 应用实战篇 聚焦于深度学习模型的实际应用,特别是文本和图像生成,以及代码生成的应用实战。通过具体实战项目,如利用Stable Diffusion进行图像生成和Code Llama进行代码生成,提供了微调技术的详细细节,介绍了LangChain等大模型应用框架。

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP