• {正版现货新书} 大语言模型原理、微调与Agent开发 9787111784418 丁小晶 马全一 冯洋

{正版现货新书} 大语言模型原理、微调与Agent开发 9787111784418 丁小晶 马全一 冯洋

全新正版现货,以书名为准,放心购买,购书咨询18515909251朱老师

58.55 5.9折 99 全新

库存70件

北京丰台

作者丁小晶 马全一 冯洋

出版社机械工业

ISBN9787111784418

出版时间2024-05

装帧平装

开本16开

定价99元

货号18240865

上书时间2026-01-14

   商品详情   

品相描述:全新
商品描述
作者简介
丁小晶
资深大模型AI应用技术专家与管理者,拥有超过15年计算机及AI领域经验、5年团队管理经验的技术创新与项目管理复合型人才,精通大模型技术及多语言编程,致力于AI大模型的应用和创新。
毕业于中国科学院计算技术研究所,从事高性能计算技术研究。先后在三星中国、百度等世界知名企业工作,有多年旅日工作经历,屡获百度荣誉并持多项专利。目前作为小度教育业务技术负责人及大模型应用专家,致力于研究基于大模型AI教育产品创新,引领小度教育成为行业先锋。

马全一
华为技术有限公司开源运营总监;操作系统和Rust编程语言技术专家;Web3 Infrastructure Foundation创始人、独立董事;黑龙江科技大学兼职教授;开放原子开源基金会开源项目导师。以“拥抱开源”为理念,致力于解决模型生态所遇到的挑战,推动AI生态的发展和完善。

冯洋
南京大学计算机学院副教授,主要研究方向为复杂软件系统质量保障、大语言模型研究和应用开发,研究课题包括复杂软件系统的质量保障技术、大语言模型的微调与优化技术等。近年来发表包括ICSE、FSE、ASE、ISSTA、TSE、TOSEM等CCF-A类期刊与会议学术论文30余篇,并在2022年ASE、2023年FSE、2023年Internetware等大会获杰出论文奖及华为火花奖等奖项。

目录
前言 第一部分理论基础与开发准备 第1章 大语言模型基础 1.1大语言模型概述 1.1.1大语言模型发展历史 1.1.2大语言模型发展现状 1.2模型的基本架构 1.2.1Transformer架构解析 1.2.2编码器-解码器 1.2.3注意力机制详解 1.3大语言模型应用开发基础 1.3.1与大语言模型相关的Python开发技术 1.3.2React开发框架 1.4大语言模型训练原理简介 1.4.1LoRA微调技术 1.4.2Prompt改进:P-Tuning 1.4.3人类反馈强化学习 第2章 大语言模型应用开发基础 2.1CUDA并行编程技术 2.1.1CUDA编程模型与架构原理 2.1.2基于CUDA的矩阵运算与优化实现 2.1.3CUDA内核性能调优与工具使用 2.2基于PyTorch的大语言模型构建方法 2.2.1PyTorch核心模块解析:数据加载与模型定义 2.2.2自动微分与优化器的实现原理 2.2.3多GPU分布式训练与性能优化 2.3Nginx web服务器开发 2.3.1Nginx核心模块与配置解析 2.3.2使用Nginx处理静态与动态内容 2.3.3高并发场景下的性能调优 2.4Hugging Face的Transformer库 2.4.1Transformer库基础:模型加载与简单推理 2.4.2自定义微调流程:从数据准备到模型训练 2.4.3模型导出与量化加速推理 2.5API开发与云端部署 2.5.1FastAPI框架快速搭建RESTful接口 2.5.2部署深度学习模型服务:从本地到云端 2.5.3接口性能监控与日志管理工具开发 第二部分核心技术解析与优化 第3章 大语言模型微调与应用实战 3.1基于LLaMA3模型的微调技术 3.1.1微调场景分析:任务分类、文本生成与问答 3.1.2微调数据准备与预处理 3.1.3微调过程实现:冻结层优化与增量学习 3.2基于GeMMA-7B模型的微调技术 3.2.1GeMMA-7B模型的任务适配:多任务微调方法 3.2.2数据增强技术在微调中的应用 3.2.3高效微调工具链:使用Hugging Face与PEFT方法 3.3案例实战:企业文档问答平台 3.3.1企业文档问答任务需求分析与功能模块划分 3.3.2构建企业文档问答系统 3.3.3微调、部署与性能测试 第4章 模型量化、编译与推理 4.1大语言模型量化原理 4.1.1模型量化技术简介:从FP32到INT8的精度降低方法 4.1.2量化算法实现:动态量化与静态量化的技术差异 4.1.3量化对推理性能的影响分析:速度提升与硬件加速 4.2基于LLaMA3模型的量化过程 4.2.1模型编译 4.2.2模型加载 4.2.3模型量化与测试 4.2.4通过Nginx运行量化模型 4.3基于GeMMA-7B模型的量化过程 4.3.1模型编译 4.3.2模型加载 4.3.3模型量化与测试 4.3.4通过Nginx运行量化模型 4.4量化模型与推理 4.4.1INT8推理框架对比:TensorRT与ONNX Runtime的应用 4.4.2量化模型的实时推理 第三部分行业应用开发与实战 第5章 服务类应用开发:电商智能客服平台 5.1客服平台需求分析与功能规划 5.1.1电商场景中的常见客服需求分析 5.1.2智能客服功能模块分解:对话生成、问题匹配与用户情绪检测 5.1.3技术架构设计:对话模型与后端服务的集成 5.2数据收集与清洗:构建电商客服知识库 5.2.1知识库构建的流程与数据来源分析:商品信息与用户问题整合 5.2.2数据清洗与分类技术:停用词过滤、分词与主题标签提取 5.2.3数据增强与扩展方法:同义词替换与多语言支持 5.3模型选择与微调:定制化客服模型开发 5.3.1选择合适的预训练模型:对比BERT、GPT与T5的适用场景 5.3.2微调对话生成模型:训练FAQ匹配与上下文生成能力 5.3.3模型评估与优化:BLEU、ROUGE等指标的使用与调优 5.4聊天逻辑与上下文管理实现 5.4.1多轮对话上下文管理:用户意图识别与历史对话跟踪 5.4.2对话状态追踪与转移:Slot Filling技术的应用 5.4.3自然对话中的中断与恢复逻辑处理 5.5实时问答API与平台部署 5.5.1API设计与开发:实现多轮对话与知识检索接口 5.5.2实时部署与性能优化:负载均衡与延迟优化 第6章 生产类应用开发:编程辅助插件 6.1编程辅助需求分析与插件架构设计 6.1.1需求分解:语法检查、代码生成与性能优化 6.1.2数据流、后端逻辑与UI组件分离 6.2编程语言模型微调:从代码生成到Bug修复 6.2.1代码生成任务微调:从小样本学习到语法生成 6.2.2错误检测与修复模型实现:代码标注与错误模式学习 6.2.3生成式与判别式模型结合:从补全到建议 6.3插件开发框架:编辑器集成与插件编写 6.3.1基于VS Code扩展API的插件基础开发 6.3.2编写代码补全与重构功能模块:结合语言服务器协议(LSP) 6.3.3插件与云服务交互开发:代码片段存储与共享功能 6.4编程任务与语言支持扩展 6.4.1多语言代码生成的实现与支持:基于CodeT5或Codex的扩展 6.4.2AST解析与复杂度分析 第7章 RAG应用开发:复杂场景下的寻人检索数据库 7.1RAG应用场景分析:寻人检索需求与数据库构建 7.1.1数据库结构设计:基于向量化数据的检索架构规划 7.1.2寻人场景数据特点与多模态信息整合 7.2数据嵌入向量化与存储:使用Milvus构建检索索引 7.2.1数据向量化实现:结合Sentence-BERT生成嵌入向量 7.2.2Milvus数据库的索引构建:从HNSW到IVF 7.3检索模块开发:从语义搜索到多模态查询 7.3.1基于语义搜索的检索:相似度匹配优化 7.3.2查询结果的排序与过滤 7.3.3寻人检索系统开发 第8章 LangChain应用开发:硬件开发工程师助理 8.1硬件工程需求分析与助手功能设计 8.1.1常见硬件开发流程分析:设计验证与调试需求 8.1.2助理功能模块设计:问题回答、文档解析与设计建议 8.1.3技术架构选择:结合LangChain模块化开发的流水线设计 8.2硬件知识库构建与预训练模型微调 8.2.1构建面向硬件开发的高质量语料库 8.2.2领域微调:适配硬件领域专有术语 8.2.3知识库与语料库的动态更新 8.3LangChain流水线开发:从知识检索到问题解答 8.3.1基于LangChain的多步检索与问答实现 8.3.2知识链与逻辑推理 8.3.3动态知识图谱 8.4硬件设计工具集成与数据生成 8.4.1与EDA工具的接口开发与集成 8.4.2硬件设计数据生成器 第四部分高级技术拓展与创新 第9章 Prompt生成:提示词生成技术 9.1提示词优化需求分析与生成技术简介 9.1.1提示词在大语言模型性能优化中的作用 9.1.2提示词生成的技术原理与常用方法 9.1.3动态提示词优化与自适应调整 9.2提示词语料库构建与分类方法 9.2.1构建提示词库:从文本生成到翻译任务 9.2.2提示词的聚类与分类实现:K-means与DBSCAN的使用 9.2.3提示词的自动扩展与评价指标 9.3生成模型微调与Prompt优化技术实现 9.3.1使用生成模型实现提示词优化:基于T5微调的示例 9.3.2Few-shot与Zero-shot场景下的提示词生成 9.3.3提示词对比学习的实现:监督与自监督 第10章 智能体开发:文本文档划词翻译插件 10.1文档翻译场景分析与划词翻译需求设计 10.1.1文档翻译的场景需求与技术分析 10.1.2划词翻译实现 10.1.3翻译智能体核心架构设计 10.1.4智能体逐模块开发 10.1.5系统综合开发完整代码实现 10.2翻译模型微调与多语言支持实现 10.2.1基于大语言模型的多语言翻译 10.2.2对比基于词典与语料的方法 10.2.3增强翻译结果的流畅性与语义准确度 10.3插件开发与跨平台兼容性优化 10.3.1浏览器插件API的开发 10.3.2文本编辑器划词翻译插件开发 10.3.3响应速度优化与内存占用优化 10.4翻译系统评估与用户反馈迭代 10.4.1翻译质量的评价指标与调优 10.4.2用户行为数据采集与反馈机制

内容摘要
本书全面探讨了大语言模型(通常可简称“大模型”)在应用开发中的核心技术与实现。内容涵盖了大语言模型的基本原理、微调与优化技术、复杂项目开发流程及高效实用的工程实践案例,通过结构化的模块设计和详细的代码解析,帮助读者快速掌握相关技术并应用于真实场景,搭建从理论到实践的完整知识体系。
本书分为四部分,共10章,系统梳理了大语言模型的核心架构与原理,深入讲解了Transformer模型的构造与训练机制,全面介绍了现代微调方法(如LoRA、P-Tuning等)以及模型量化、编译与推理优化的关键技术。针对应用场景,本书结合多个企业级实际案例,包括电商智能客服平台、编程辅助插件、寻人检索数据库和硬件开发工程师助理等,详细展示了从需求分析、数据处理、模型选择到上线部署的完整开发流程。这些案例不仅强调技术实现,还融入了工程实践中常见的问题与解决方案,为读者提供了丰富的参考资料。
本书适合对大语言模型感兴趣的技术爱好者、希望深入研究模型微调与优化的科研人员、从事人工智能开发的工程师和产品经理,同时也适合高等院校相关专业学习大语言模型的师生。同时,随书附赠案例代码、教学视频及授课用PPT,读者可通过扫封底二维码获取。无论是初学者学习理论基础、学生探索前沿技术,还是工程师在一线工作中进行实践开发,本书都能提供系统化的知识体系和实用的开发技能。

主编推荐
覆盖微调、量化与推理完整实战技术 聚焦LORA、P-Tuning主流优化方法 展示多行业真实场景的应用开发案例 强调工程部署与云端集成的实操能力 中国科学院、中国电信研究院、蔚来、京东、曦智科技等多位专家联合推荐 附赠案例代码、教学视频、授课用PPT、函数功能汇总表和拓展思考题等海量学习资源

精彩内容
本书全面探讨了大语言模型(通常可简称“大模型”)在应用开发中的核心技术与实现。内容涵盖了大语言模型的基本原理、微调与优化技术、复杂项目开发流程及高效实用的工程实践案例,通过结构化的模块设计和详细的代码解析,帮助读者快速掌握相关技术并应用于真实场景,搭建从理论到实践的完整知识体系。 本书分为四部分,共10章,系统梳理了大语言模型的核心架构与原理,深入讲解了Transformer模型的构造与训练机制,全面介绍了现代微调方法(如LoRA、P-Tuning等)以及模型量化、编译与推理优化的关键技术。针对应用场景,本书结合多个企业级实际案例,包括电商智能客服平台、编程辅助插件、寻人检索数据库和硬件开发工程师助理等,详细展示了从需求分析、数据处理、模型选择到上线部署的完整开发流程。这些案例不仅强调技术实现,还融入了工程实践中常见的问题与解决方案,为读者提供了丰富的参考资料。 本书适合对大语言模型感兴趣的技术爱好者、希望深入研究模型微调与优化的科研人员、从事人工智能开发的工程师和产品经理,同时也适合高等院校相关专业学习大语言模型的师生。同时,随书附赠案例代码、教学视频及授课用PPT,读者可通过扫封底二维码获取。无论是初学者学习理论基础、学生探索前沿技术,还是工程师在一线工作中进行实践开发,本书都能提供系统化的知识体系和实用的开发技能。

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP