• llama大模型实践指南 人工智能 张俊祺等 新华正版
21年品牌 40万+商家 超1.5亿件商品

llama大模型实践指南 人工智能 张俊祺等 新华正版

人工智能 新华书店全新正版书籍 支持7天无理由

48.6 6.2折 79 全新

库存24件

河北保定
认证卖家担保交易快速发货售后保障

作者张俊祺等

出版社电子工业出版社

ISBN9787121470103

出版时间2024-01

版次1

装帧平装

开本其他

页数168页

定价79元

货号xhwx_1203180470

上书时间2024-01-25

浩子书屋

八年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
正版特价新书
商品描述
目录:

章  大模型的基础理论
1.1  大模型的发展历史
1.1.1  从语言模型到预训练大模型
1.1.2  预训练大模型的发展
1.1.3  大模型的进化
1.2  大模型的核心框架
1.2.1  transformer
1.2.2  位置编码
1.2.3  多头自注意力机制
1.3  数据收集和数据处理
1.3.1  数据收集
1.3.2  数据处理
1.4  大模型的预训练及微调
1.4.1  无监督预训练
1.4.2  指令微调
1.4.3  基于人类反馈微调
1.5  大模型的评测
1.5.1  评测任务
1.5.2  评测数据集
1.5.3  评测方
1.5.4  评测中的挑战
第2章  部署llama 2大模型
2.1  部署前的准备
2.1.1  硬件准备
2.1.2  环境准备
2.2  模型的导入与加载
2.2.1  下载代码
2.2.2  下载模型
2.3  模型部署
2.3.1  api部署
2.3.2  text-generation-webui 部署
2.3.3  使用text-generation-webui
第3章  微调llama 2大模型
3.1  微调的数据集准备和标注
3.1.1  数据集准备
3.1.2  数据集标注
3.2  llama 2大模型加载
3.3  微调策略设计及模型重新训练
3.3.1  微调策略设计
3.3.2  模型参数高效微调
3.4  模型评估、测试和模型优化
3.4.1  模型评估、测试
3.4.2  模型优化
3.5  模型保存、模型部署和推理加速
3.5.1  模型保存
3.5.2  模型部署
3.5.3  推理加速
第4章  解决llama 2大模型多轮对话难题
4.1  定制多轮对话数据集和构造方
4.1.1  准备微调训练数据的7个原则
4.1.2  定制微调训练数据集
4.1.3  多轮对话的3个场景
4.2  实构造多轮对话微调训练数据集
4.3  通过多轮对话存储解决信息流失问题
4.3.1  拼接历史与当前输入
4.3.2  上下文向量
4.3.3  对话状态追踪
4.3.4  状态压缩
4.3.5  增量学和在线学
4.4  提高大模型多轮对话应对能力
4.4.1  针对的数据集与微调
4.4.2  实时反馈与自适应
4.4.3  强化学优化
4.4.4  上下文感知与个化
4.4.5  多模态与多任务学
4.4.6  错误处理与恢复策略
4.5  模型评估与持续改进
4.5.1  微调llama 2大模型评估
4.5.2  持续改进
4.6  适合llama 2大模型多轮对话的prompt构建
第5章  基于llama 2定制行业大模型
5.1  业务数据分析指导行业大模型定制
5.1.1  行业大模型的定制策略
5.1.2  模型能的评估
5.2  行业数据的获取与预处理
5.2.1  数据获取
5.2.2  数据预处理
5.3  llama 2大模型导入初始化
5.4  微调获得行业特定大模型
5.4.1  领域预训练
5.4.2  微调策略
5.5  模型测试、评估和优化
第6章  llama 2 + langchain文档问答模型构建
6.1  langchain介绍
6.2  langchain的主要概念与示例
6.2.1  模型
6.2.2  提示
6.2.3  输出解析器
6.2.4  索引
6.2.5  内存
6.2.6  链
6.2.7  代理
6.2.8  工具
6.3  langchain 环境配置
6.3.1  python环境搭建
6.3.2  langchain主要模块
6.4  llama 2+langchain文档问答模型评估
6.4.1  设置虚拟环境和创建文件结构
6.4.2  llama 2和langchain的交互流程
6.4.3  具体案例
第7章  多语言大模型技术介绍及其应用
7.1  多语言大模型的研究现状和技术方向
7.1.1  为什么进行多语言研究
7.1.2  多语言在nlp社区的发展
7.1.3  多语言模型技术方向
7.2  多语言大模型的预训练资源和评测任务
7.2.1  多语言大模型的预训练资源介绍
7.2.2  评测任务介绍
7.3  多语言大模型的优化方向
7.3.1  数据预处理流程
7.3.2  tokenizer
7.3.3  训练数据格式和采样策略
7.3.4  多语言大模型的训练任务
7.3.5  多语言大模型的优化方向结(以llama 2为例)
7.4  多语言大模型的应用
7.4.1  智能客服
7.4.2  搜索引擎
7.4.3  机器翻译

内容简介:

本书共包括7章,涵盖了从基础理论到实际应用的全方位内容。章深入探讨了大模型的基础理论。第2章和第3章专注于llama2大模型的部署和微调,提供了一系列实用的代码示例、案例分析和很好实践。第4章介绍了多轮对话难题,这是许多大模型开发者和研究人员面临的一大挑战。第5章探讨了如何基于llama2定制行业大模型,以满足特定业务需求。第6章介绍了如何利用llama2和langchain构建高效的文档问答模型。第7章展示了多语言大模型的技术细节和应用场景。本书既适合刚入门的和研究人员阅读,也适合有多年研究经验的专家和工程师阅读。通过阅读本书,读者不仅能掌握llama2大模型的核心概念和技术,还能学会如何将这些知识应用于实际问题,从而在这一快展的领域中取得优势。

—  没有更多了  —

以下为对购买帮助不大的评价

正版特价新书
此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP