• 快速部署大模型:LLM策略与实践
21年品牌 40万+商家 超1.5亿件商品

快速部署大模型:LLM策略与实践

57.19 7.2折 79 九五品

仅1件

北京通州
认证卖家担保交易快速发货售后保障

作者[美]斯楠·奥兹德米尔(SinanOzdemir)著姚普白涛

出版社清华大学出版社

ISBN9787302661610

出版时间2024-06

版次1

装帧平装

开本16开

纸张胶版纸

定价79元

上书时间2024-12-14

纵列風

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:九五品
商品描述
基本信息
书名:快速部署大模型:LLM策略与实践
定价:79.00元
作者:[美]斯楠·奥兹德米尔(SinanOzdemir)著姚普白涛卜崇宇王蜀洪 译
出版社:清华大学出版社
出版日期:2024-06-01
ISBN:9787302661610
字数:
页码:
版次:
装帧:平装
开本:24开
商品重量:
编辑推荐
本书主要围绕如何充分挖掘、利用大语言模型的潜力,囊括了大语言模型的概念,如何通过提示词更好地利用大语言模型,大语言模型在信息检索、推荐系统、视觉问答等任务中的应用,以及大语言模型的微调、多模态训练、模型生产应用等高阶使用技巧。本书在讲解过程中搭配大量的应用实例以及相关代码,从大语言模型的概念、挖掘大语言模型潜力的方式到大语言模型的高级使用方式,读者能够将概念学习和实践应用同步进行,是相关领域工程技术人员、学术人员以及对大语言模型感兴趣的广大读者的。本书的内容编排适合以下群体:(1) 有一定的编程能力,但对大语言模型没有充分的认知,想通过本书迅速掌握大语言模型的概念,并在相关业务领域(信息检索、对话系统、推荐系统等)实现快速应用。(2) 大语言模型某个研究领域的资深从业人员,但是想更全面地了解大语言模型在各个领域的研究应用现状,实现对大语言模型从学术研究到生产应用的全方位系统认知。
内容提要
本书主要围绕如何充分挖掘、利用大语言模型的潜力,囊括了大语言模型的概念,如何通过提示词更好地利用大语言模型,大语言模型在信息检索、推荐系统、视觉问答等任务中的应用,以及大语言模型的微调、多模态训练、模型生产应用等高阶使用技巧。本书在讲解过程中搭配大量的应用实例以及相关代码,从大语言模型的概念、挖掘大语言模型潜力的方式到大语言模型的高级使用方式,读者能够将概念学习和实践应用同步进行,是相关领域工程技术人员、学术人员以及对大语言模型感兴趣的广大读者的。本书的内容编排适合以下群体:(1) 有一定的编程能力,但对大语言模型没有充分的认知,想通过本书迅速掌握大语言模型的概念,并在相关业务领域(信息检索、对话系统、推荐系统等)实现快速应用。(2) 大语言模型某个研究领域的资深从业人员,但是想更全面地了解大语言模型在各个领域的研究应用现状,实现对大语言模型从学术研究到生产应用的全方位系统认知。
目录
部分大模型介绍章大模型概述1.1什么是大模型1.1.1大模型的定义1.1.2大模型的关键特征1.1.3大模型是如何工作的1.2当前流行的大模型1.2.1BERT1.2.2GPT3和 ChatGPT1.2.3T51.3垂直领域大模型1.4大模型的应用1.4.1经典的NLP任务1.4.2自由文本生成1.4.3信息检索/神经语意搜索1.4.4聊天机器人1.5本章小结第2章大模型语义检索2.1简介2.2语义检索的任务2.3非对称语义检索方案概述2.4组件2.4.1文本嵌入器2.4.2文档分块2.4.3向量数据库2.4.4Pinecone2.4.5开源替代方案2.4.6检索结果重排2.4.7API2.5完整方案2.6闭源组件的成本2.7本章小结第3章提示词工程入门3.1简介3.2提示词工程3.2.1LLM的对齐3.2.2LLM提问3.2.3小样本学习3.2.4结构化输出3.2.5人物角色提示词3.3跨模型提示词工程3.3.1ChatGPT3.3.2Cohere3.3.3开源提示词工程3.4采用ChatGPT构建问答机器人3.5本章小结第2部分充分挖掘大模型的潜力第4章通过定制化微调优化大模型4.1简介4.2迁移学习与微调入门4.2.1微调过程的解释4.2.2闭源预训练模型作为基础模型4.3OpenAI 微调 API 概览4.3.1GPT3微调 API4.3.2案例学习: 评论情感分类4.3.3数据指南和实践4.4使用OpenAI CLI实现自定义数据微调4.5设置 OpenAI CLI4.6LLM微调实践4.6.1采用量化指标评测大模型4.6.2定性评估技术4.6.3将微调的GPT3模型集成到应用程序中4.6.4案例学习: 评论分类4.7本章小结第5章高级提示工程5.1提示注入攻击5.2输入/输出验证5.3批处理提示5.4提示链5.4.1提示链作为防御提示注入的手段5.4.2使用提示链来防止提示填充5.4.3使用提示链来安全地使用多模态LLM5.5思维链提示5.6重新审视小样本学习5.7测试和迭代快速开发5.8本章小结第6章定制嵌入层和模型架构6.1案例研究: 构建一个推荐系统6.1.1定义问题和数据6.1.2推荐系统的定义6.1.3基于万条用户行为数据构建推荐系统6.1.4生成自定义字段来对比项目的相似性6.1.5采用基础词向量构建基线6.1.6准备微调数据6.1.7使用Sentence Transformers微调开源嵌入器6.1.8微调效果总结6.2本章小结第3部分大模型的高级使用第7章基础模型7.1案例研究: 视觉问答7.1.1模型简介: DistilBERT、视觉转换器和GPT27.1.2隐藏状态投影和融合7.1.3交叉注意力是什么以及为什么至关重要7.1.4定制多模式联运模型7.1.5数据: 视觉问答7.1.6VQA训练迭代7.1.7结果总结7.2案例研究: 从反馈中强化学习7.2.1FLANT5模型7.2.2奖励模型: 情感和语法正确性7.2.3Transformer强化学习7.2.4RLF训练循环7.2.5结果总结7.3本章小结第8章开源大模型的高级微调方法8.1案例研究: 采用BERT对动漫进行多标签分类8.1.1采用Jaccard相似分来评估动漫标题多标签分类的效果8.1.2简单的微调大模型训练流程8.1.3通用的开源大模型微调技巧8.1.4结果总结8.2采用GPT2生成LaTeX8.2.1开源大模型的提示词工程8.2.2结果总结8.3Sinan尝试做出聪明而优美的回应: SAWYER8.3.1有监督指令微调8.3.2奖励模型的训练8.3.3从(期望的)人类反馈中进行强化学习8.3.4结果总结8.4日新月异的微调世界8.5本章小结第9章将LLM应用于生产9.1闭源LLM应用于生产9.2开源LLM应用于生产9.2.1将LLM应用于推理9.2.2互操作性9.2.3模型量化9.2.4模型剪枝9.2.5知识蒸馏9.2.6大模型的成本预估9.2.7模型推送到Hugging Face仓库9.3本章小结9.3.1欢迎向社区贡献代码9.3.2继续加油第4部分附录附录ALLM常见问题解答附录BLLM术语表附录CLLM应用架构
作者介绍

序言

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP