• 多模态深度学习技术基础
图书条目标准图
21年品牌 40万+商家 超1.5亿件商品

多模态深度学习技术基础

全新正版未拆封

40.02 4.0折 99 全新

仅1件

四川成都
认证卖家担保交易快速发货售后保障

作者冯方向;王小捷

出版社清华大学出版社

出版时间2023-09

版次1

装帧其他

上书时间2024-05-03

转角书檐

三年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
图书标准信息
  • 作者 冯方向;王小捷
  • 出版社 清华大学出版社
  • 出版时间 2023-09
  • 版次 1
  • ISBN 9787302637479
  • 定价 99.00元
  • 装帧 其他
  • 开本 16开
  • 纸张 胶版纸
【内容简介】
内容上,本书力求系统地介绍基于深度学习的图文多模态信息处理技术,侧重介绍最通用、最基础的技术,覆盖了多模态表示、对齐、融合和转换等四大关键技术。同时也介绍了多模态信息处理领域的**发展前沿——多模态预训练模型。此外,为了让读者可以实践这些多模态深度学习技术,本书提供了四个完整的实战案例,分别对应多模态表示、对齐、融合和转换这四个关键技术。 具体而言,本书的内容分为四个部分:初识多模态信息处理、单模态表示、多模态信息处理的关键技术、多模态预训练模型。 第一部分包括两个章节:第1章介绍多模态信息的基本概念、难点、使用深度学习方法的动机、多模态信息处理的关键技术以及这些技术的发展历史,第2章介绍若干同时涉及图像和文本的多模态热门研究任务。 第二部分包括两个章节:第3和4章分别介绍了多模态信息处理中常用的文本表示和图像表示方法。 第三部分包括四个章节:第5、6、7、8章分别介绍面向特定任务的多模态表示、对齐、融合和转换这四个关键技术,且每一章都提供了一个可运行的完整的实战案例。 第四部分包括一个章节:第9章介绍综合使用上述关键技术,并以学习通用多模态表示为目标的多模态预训练模型。
【目录】
第1章  绪论 1

1.1  多模态信息处理的概念 1

1.2  多模态信息处理的难点 2

1.3  使用深度学习技术的动机 3

1.4  多模态信息处理的基础技术 4

1.4.1  表示技术 4

1.4.2  对齐技术 4

1.4.3  融合技术 5

1.4.4  转换技术 5

1.5  多模态深度学习技术的发展历史 5

1.6  小结 8

1.7  习题 9

第2章  多模态任务 10

2.1  图文跨模态检索 10

2.1.1  数据集 11

2.1.2  评测指标 12

2.2  图像描述 13

2.2.1  数据集 14

2.2.2  评测指标 14

2.3  视觉问答 19

2.3.1  数据集 20

2.3.2  评测指标 23

2.4  文本生成图像 23

2.4.1  数据集 24

2.4.2  评测指标 25

2.5  指称表达 27

2.5.1  数据集 29

2.5.2  评测指标 30

2.6  小结 31

2.7  习题 31

第3章  文本表示 32

3.1  基于词嵌入的静态词表示 33

3.1.1  Word2vec 33

3.1.2  GloVe 35

3.2  基于循环神经网络的动态词表示 36

3.2.1  循环神经网络基础 36

3.2.2  现代循环神经网络 37

3.2.3  动态词表示和整体表示 40

3.3  基于注意力的预训练语言模型表示 42

3.3.1  自注意力 43

3.3.2  transformer编码器 46

3.3.3  BERT 47

3.3.4  BERT词表示和整体表示 49

3.4  小结 50

3.5  习题 50

第4章  图像表示 51

4.1  基于卷积神经网络的整体表示和网格表示 53

4.1.1  卷积神经网络基础 53

4.1.2  现代卷积神经网络 54

4.1.3  整体表示和网格表示 55

4.2  基于目标检测模型的区域表示 57

4.2.1  基于深度学习的目标检测基础 57

4.2.2  区域表示 58

4.3  基于视觉transformer的整体表示和块表示 59

4.3.1  使用自注意力代替卷积 59

4.3.2  视觉transformer 60

4.3.3  整体表示和块表示 61

4.4  基于自编码器的压缩表示 62

4.4.1  量化自编码器:VQ-VAE 62

4.4.2  量化生成对抗网络:VQGAN 64

4.4.3  变分生成对抗网络:KLGAN 67

4.4.4  压缩表示 67

4.5  小结 68

4.6  习题 68

第5章  多模态表示 69

5.1  共享表示 71

5.1.1  多模态深度自编码器 72

5.1.2  多模态深度生成模型 73

5.2  对应表示 79

5.2.1  基于重构损失的方法 80

5.2.2  基于排序损失的方法 81

5.2.3  基于对抗损失的方法 84

5.3  实战案例:基于对应表示的跨模态检索 85

5.3.1  跨模态检索技术简介 85

5.3.2  模型训练流程 86

5.3.3  读取数据 87

5.3.4  定义模型 95

5.3.5  定义损失函数 99

5.3.6  选择优化方法 100

5.3.7  评估指标 101

5.3.8  训练模型 103

5.4  小结 107

5.5  习题 107

第6章  多模态对齐 109

6.1  基于注意力的方法 110

6.1.1  交叉注意力 110

6.1.2  基于交叉注意力的图文对齐和相关性计算 112

6.2  基于图神经网络的方法 115

6.2.1  图神经网络基础 115

6.2.2  单模态表示提取 120

6.2.3  单模态图表示学习 120

6.2.4  多模态图对齐 122

6.3  实战案例:基于交叉注意力的跨模态检索 123

6.3.1  读取数据 123

6.3.2  定义模型 129

6.3.3  定义损失函数 131

6.3.4  选择优化方法 137

6.3.5  评估指标 137

6.3.6  训练模型 140

6.4  小结 143

6.5  习题 144

第7章  多模态融合 145

7.1  基于双线性融合的方法 146

7.1.1  多模态低秩双线性池化 147

7.1.2  多模态因子双线性池化 148

7.1.3  多模态Tucker融合 149

7.2  基于注意力的方法 150

7.2.1  基于交叉注意力的基础方法 150

7.2.2  基于多步交叉注意力的方法 151

7.2.3  基于交叉transformer编码器的方法 152

7.3  实战案例:基于MFB的视觉问答 153

7.3.1  视觉问答技术简介 153

7.3.2  读取数据 154

7.3.3  定义模型 165

7.3.4  定义损失函数 170

7.3.5  选择优化方法 170

7.3.6  选择评估指标 171

7.3.7  训练模型 171

7.4  小结 175

7.5  习题 175

第8章  多模态转换 177

8.1  基于编解码框架的方法 178

8.1.1  基于循环神经网络的编解码模型 179

8.1.2  基于注意力的编解码模型 181

8.1.3  基于transformer的编解码模型 183

8.2  基于生成对抗网络的方法 185

8.2.1  基于条件生成对抗网络的基本方法 185

8.2.2  基于多阶段生成网络的方法 187

8.2.3  基于注意力生成网络的方法 191

8.3  实战案例:基于注意力的图像描述 193

8.3.1  图像描述技术简介 193

8.3.2  读取数据 194

8.3.3  定义模型 195

8.3.4  定义损失函数 203

8.3.5  选择优化方法 204

8.3.6  选择评估指标 204

8.3.7  训练模型 206

8.4  小结 209

8.5  习题 210

第9章  多模态预训练 211

9.1  总体框架 211

9.2  预训练数据集 212

9.3  模型结构 213

9.3.1  基于编码器的模型 214

9.3.2  基于编解码框架的模型 215

9.4  预训练任务 216

9.4.1  掩码语言模型 216

9.4.2  掩码视觉模型 216

9.4.3  图像文本匹配 217

9.4.4  跨模态对比学习 217

9.5  下游任务 217

9.5.1  视觉常识推理 217

9.5.2  视觉语言推理 218

9.5.3  视觉蕴含 218

9.6  典型模型 218

9.6.1  基于融合编码器的双流模型:LXMERT 218

9.6.2  基于融合编码器的单流模型:ViLT 220

9.6.3  基于双编码器的模型:CLIP 222

9.6.4  基于编解码框架的模型:OFA 223

9.7  小结 226

9.8  习题 226

参考文献 227

 
点击展开 点击收起

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP