¥ 50.5 4.6折 ¥ 109.8 全新
库存45件
作者作者
出版社人民邮电
ISBN9787115600820
出版时间2023-02
版次1
装帧平装
开本16
页数572页
字数0.97千字
定价109.8元
货号313_9787115600820
上书时间2024-10-30
对本书的赞誉
前言
译者简介
学环境配置
资源与支持
主要符号表
章引言1
1.1常生活中的机器学2
1.2机器学中的关键组件3
1.2.1数据3
1.2.2模型4
1.2.3目标函数4
1.2.4优化算法5
1.3各种机器学问题5
1.3.1监督学5
1.3.2无监督学11
1.3.3与环境互动11
1.3.4强化学12
1.4起源13
1.5深度学的发展15
1.6深度学的成功案例16
1.7特点17
第2章预备知识20
2.1数据作20
2.1.1入门21
2.1.2运算符22
2.1.3广播机制23
2.1.4索引和切片24
2.1.5节省内存24
2.1.6转换为其他python对象25
2.2数据预处理26
2.2.1读取数据集26
2.2.2处理缺失值26
2.2.3转换为张量格式27
2.3线代数27
2.3.1标量28
2.3.2向量28
2.3.3矩阵29
2.3.4张量30
2.3.5张量算法的基本质31
2.3.6降维32
2.3.7点积33
2.3.8矩阵-向量积33
2.3.9矩阵-矩阵乘法34
2.3.10范数35
2.3.11关于线代数的更多信息36
2.4微积分37
2.4.1导数和微分37
2.4.2偏导数40
2.4.3梯度41
2.4.4链式法则41
2.5自动微分42
2.5.1一个简单的例子42
2.5.2非标量变量的反向传播43
2.5.3分离计算43
2.5.4python控制流的梯度计算44
2.6概率44
2.6.1基本概率论45
2.6.2处理多个变量48
2.6.3期望和方差50
2.7查阅文档51
2.7.1查找模块中的所有函数和类51
2.7.2查找特定函数和类的用法52
第3章线神经网络54
3.1线回归54
3.1.1线回归的基本元素54
3.1.2向量化加速57
3.1.3正态分布与方损失58
3.1.4从线回归到深度网络60
3.2线回归的从零开始实现61
3.2.1生成数据集62
3.2.2读取数据集63
3.2.3初始化模型参数63
3.2.4定义模型64
3.2.5定义损失函数64
3.2.6定义优化算法64
3.2.7训练64
3.3线回归的简洁实现66
3.3.1生成数据集66
3.3.2读取数据集66
3.3.3定义模型67
3.3.4初始化模型参数67
3.3.5定义损失函数68
3.3.6定义优化算法68
3.3.7训练68
3.4softmax回归69
3.4.1分类问题69
3.4.2网络架构70
3.4.3全连接层的参数开销70
3.4.4softmax运算71
3.4.5小批量样本的向量化71
3.4.6损失函数72
3.4.7信息论基础73
3.4.8模型预测和评估74
3.5图像分类数据集74
3.5.1读取数据集75
3.5.2读取小批量76
3.5.3整合所有组件76
3.6softmax回归的从零开始实现77
3.6.1初始化模型参数77
3.6.2定义softmax作78
3.6.3定义模型78
3.6.4定义损失函数79
3.6.5分类精度79
3.6.6训练80
3.6.7预测82
3.7softmax回归的简洁实现83
3.7.1初始化模型参数83
3.7.2重新审视softmax的实现84
3.7.3优化算法84
3.7.4训练84
第4章多层感知机86
4.1多层感知机86
4.2多层感知机的从零开始实现92
4.3多层感知机的简洁实现94
模型94
4.4模型选择、欠拟合和过拟合95
4.5权重衰减103
4.6暂退法108
4.7前向传播、反向传播和计算图112
4.8数值稳定和模型初始化115
4.9环境和分布偏移119
4.10实战kale比赛:预测房价127
第5章深度学计算136
5.1层和块136
5.2参数管理141
5.3延后初始化145
实例化网络146
5.4自定义层146
5.5读写文件148
5.6pu150
第6章卷积神经网络155
6.1从全连接层到卷积155
6.2图像卷积159
6.3填充和步幅164
6.4多输入多输出通道166
6.5汇聚层170
6.6卷积神经网络(le)173
第7章现代卷积神经网络178
7.1深度卷积神经网络(alex)178
7.2使用块的网络(v)184
7.3网络中的网络(nin)187
7.4含并行连接的网络(oole)190
7.5批量规范化194
7.6残差网络(res)200
7.7稠密连接网络(dense)205
第8章循环神经网络209
8.1序列模型209
8.2文本预处理216
8.3语言模型和数据集219
8.4循环神经网络226
8.5循环神经网络的从零开始实现230
8.6循环神经网络的简洁实现237
8.7通过时间反向传播239
第9章现代循环神经网络244
9.1门控循环单元(ru)244
9.2长短期记忆网络(lstm)249
9.3深度循环神经网络254
9.4双向循环神经网络256
9.5机器翻译与数据集260
9.6-架构265
9.7序列到序列学(seq2seq)267
9.8束搜索275
0章注意力机制278
10.1注意力提示278
10.2注意力汇聚:nadaraya-watson核回归281
10.3注意力评分函数287
10.4bahdanau注意力291
10.5多头注意力295
10.6自注意力和位置编码298
10.7transformer302
1章优化算法311
11.1优化和深度学311
11.2凸315
11.3梯度下降322
11.4梯度下降329
11.5小批量梯度下降334
11.6动量法341
11.7adarad算法348
11.8rmsprop算法353
11.9adadelta算法356
11.10adam算法358
11.11学率调度器361
2章计算能369
12.1编译器和解释器369
12.2异步计算372
通过后端异步处理373
12.3自动并行375
12.4硬件378
12.5多pu训练388
12.6多pu的简洁实现394
12.7参数服务器397
3章计算机视觉404
13.1图像增广404
13.2微调410
13.3目标检测和边界框415
13.4锚框417
13.5多尺度目标检测427
13.6目标检测数据集430
13.7单发多框检测(ssd)433
13.8区域卷积神经网络(r-n)系列441
13.9语义分割和数据集445
13.10转置卷积450
13.11全卷积网络453
13.12风格迁移458
13.13实战kale竞赛:图像分类(cifar-10)464
13.14实战kale竞赛:的品种识别(imaedos)470
4章自然语言处理:预训练476
14.1词嵌入(word2vec)477
14.2近似训练480
14.3用于预训练词嵌入的数据集482
14.4预训练word2vec488
14.5全局向量的词嵌入(glove)491
14.6子词嵌入494
14.7词的相似度和类比任务497
14.8来自transformer的双向表示(bert)500
14.9用于预训练bert的数据集507
14.10预训练bert512
5章自然语言处理:应用515
15.1情感分析及数据集516
15.2情感分析:使用循环神经网络518
15.3情感分析:使用卷积神经网络521
15.4自然语言推断与数据集526
15.5自然语言推断:使用注意力530
15.6针对序列级和词元级应用微调bert535
15.7自然语言推断:微调bert538
附录a深度学工具543
a.1使用jupyter记事本543
a.1.1在本地编辑和运行代码543
a.1.2选项545
a.2使用saemaker546
a.2.1注册547
a.2.2创建saemaker实例547
a.2.3运行和停止实例548
a.2.4更新notebook548
a.3使用ec2实例549
a.3.1创建和运行ec2实例549
a.3.2安装cuda553
a.3.3安装库以运行代码553
a.3.4远程运行jupyter记事本554
a.3.5关闭未使用的实例554
a.4选择服务器和pu555
a.4.1选择服务器555
a.4.2选择pu556
a.5为本书做贡献558
a.5.1提交更改558
a.5.2大量文本或代码修改559
a.5.3提交主要更改559
参文献562
— 没有更多了 —
以下为对购买帮助不大的评价