Transformer9787512443105
正版图书,可开发票,请放心购买。
¥
100.89
7.8折
¥
129
全新
库存2件
作者编者:王家林//段智华|
出版社北京航空航天大学
ISBN9787512443105
出版时间2024-04
装帧平装
开本其他
定价129元
货号32084684
上书时间2024-07-27
商品详情
- 品相描述:全新
- 商品描述
-
目录
第1篇 Transformer架构及源码篇
第1章 Bayesian Transformer思想及数学原理完整论证
1.1 贝叶斯数学原理
1.2 MLE和MAP数学推导
1.3 语言模型Language Model原理机制、数学推导及神经网络实现
1.4 图解 Transformer 精髓
1.5 Bayesian Transformer 和传统 Transformer 的主要区别
1.6 Bayesian Transformer在学术和工业领域的意义
1.7 贝叶斯Bayesian Transformer数学推导论证过程全生命周期详解及 底层神经网络物理机制剖析
第2章 Transformer架构源码完整实现
2.1 Transformer架构内部的等级化结构及其在NLP中的应用内幕
2.2 数学内幕、注意力机制代码实现及Transformer可视化
2.3 以对话机器人的流式架构为例阐述Transformer学习的第三境界
2.4 以智能对话机器人为例阐述Transformer的自编码autoencoding和 自回归autoregressive语言模型内幕机制
第3章 Transformer语言模型架构、数学原理及内幕机制
3.1 语言模型的链式法则、运行机制及其分类器特性
3.2 基于概率统计Statistical Language Models语言模型内部机制、数学 公式及完整的示例
3.3 基于神经网络Neural Language Models语言模型内部机制、数学公 式及完整的示例
3.4 使用困惑度及Cross Entropy来衡量语言模型质量的具体实现及数 学公式推导
3.5 Language Model底层的数学原理之最大似然估计MLE及最大后验 概率MAP内部机制与关系详解
3.6 语言模型底层的数学原理之Bayesian模型原理与实现
3.7 基于Transformer的AI时间序列动态预测方法
第4章 GPT自回归语言模型架构、数学原理及内幕机制
4.1 语言模型的运行机制、架构内部及数学实现回顾
4.2 GPT可视化、Masking等工作机制解析
4.3 GPT中的Decoder-Only模式内部运行机制解析
4.4 数据在GPT模型中的流动生命周期Input Encodings Self-Attention 及 Model Output 详解
4.5 GPT中的Masked多头注意力机制及全连接神经网络内部运行机制 解析
第5章 BERT下的自编码语言模型架构、数学原理及内幕机制
5.1 BERT下的自编码Autoencoding语言模型架构设计及实现内幕解析
5.2 以MLM及分类为例具体分析BERT强大的能够支持各种下游任务 的底层原因
5.3 BERT输入内容Word Embeddings三大步骤及其内幕工作流程详解
5.4 BERT位置编码Positional Encoding能够表达相对位置背后的数学 原因分析
5.5 BERT 的 Input Embeddings 三大组件解析
5.6 从Output结果向量和矩阵相乘的角度来解析BERT整个Encoder Stack的功能
5.7 BERT中的多头注意力机制及Position-wise Feedforward神经网络 解析
5.8 BERT中的Dropout、残差网络及Layer正则化数学原理剖析
5.9 BERT的预训练任务
5.10 BERT在NER及问答等应用场景原理剖析
第6章 BERT Pre-taining模型源码完整实现
6.1 BERT模型的Structure和MLM及NSP预训练任务回顾及最佳实践 分析
6.2 BERT 模型 Pre-Training 数据预处理、词典构建、Tbken Embeddings、 Segment Embeddings、Postion Embeddings 完整源码实现
6.3 BERT 模型 Pre-Training 多头注意力机制 Multi-head Attention 完 整源码实现
6.4 BERT 模型 Pre-Training F PositionwiseFeedForward、Sublayer Connection、LayerNorm 源码实现
6.5 BERT模型Pre-Training下多任务语言模型训练核心源码实现
6.6 BERT模型Pre-Training中的MLM及NSP源码实现及最佳实践
第7章 BERT Fine-tuning背后的数学原理详解
7.1 BERT Fine-tuning 数学原理剖析
7.2 BERT Fine-tuning文本分类数据预处理代码
7.3 BERT Fine-tuning 训练完整代码
内容摘要
本书是一本系统介绍Transformer原理、源码、
应用的技术书籍,全书分为Transformer架构及源码篇、ChatGPT技术:从基础应用到进阶实践篇。
Transformer架构及源码
篇,从Transformer的基本原理入手,深入浅出进行讲解,可使读者能够深刻理解Transformer的工作原理和设计思想,包括Transformer架构的理论知识、实际案例以及Transformer架构在时序预测等领域的应用等。本篇特点是采用大量的图片和图表,通过图文并茂的方式让读者直观地了解Trans-former的原理和应用和BayesianTransformer思想及数学原
理完整论证、Transformer架构源码完整实现、
Transformer语言模型架构、数学原理及内幕机制、
GPT自回归语言模型架构、
数学原理及内幕机制、
BERT下的自编码语言模型架构、数学原理及内幕机制、BERTPre-taining模型源码完整实现、BERTFine-tuning背后的数学原理详解、使用BERT进行NER案例实战、使用BERT进行多任务Fine-Tuning解密、使用BERT对影评数据分析的数据处理、模型代码、线上部署等方面的内容,深入分析liansformer在自然语言处理中的应用。ChatGPT技术:从基础应用到进阶实践篇,则以ChatGPT技术为主线,介绍了GPT系列模型的发展历程和技术特点、
ChatGPT技术的基本原理以及OpenAIAPI的基础应用实践等内容。
本书中既有理论讲述,又有案例应用指导,结构清晰,详略得当,既可作为机器学习、人工智能及大数据等从业人员学习用书,也可作为Transformer架构和源码剖析高手修炼的参考书,以及相关院校人工智能专业教材使用。
— 没有更多了 —
以下为对购买帮助不大的评价