• 神经网络与深度学习
图书条目标准图
21年品牌 40万+商家 超1.5亿件商品

神经网络与深度学习

75 5.0折 149 九五品

仅1件

河北廊坊
认证卖家担保交易快速发货售后保障

作者[美]查鲁·C. 阿加沃尔(Charu C. Aggarwal)

出版社机械工业出版社

出版时间2021-08

版次1

印数1千册

装帧其他

上书时间2024-06-25

书香文华阁

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:九五品
图书标准信息
  • 作者 [美]查鲁·C. 阿加沃尔(Charu C. Aggarwal)
  • 出版社 机械工业出版社
  • 出版时间 2021-08
  • 版次 1
  • ISBN 9787111686859
  • 定价 149.00元
  • 装帧 其他
  • 开本 16开
  • 纸张 胶版纸
  • 字数 340千字
【内容简介】
本书涵盖了经典和现代的深度学习模型。章节分为三类:第1部分为神经网络的基础。许多传统的机器学习模型可以理解为神经网络的特殊情况。前两章的重点是理解传统机器学习和神经网络之间的关系。支持向量机、线性/逻辑回归、奇异值分解、矩阵分解和推荐系统都是神经网络的特例。本书将这些方法与特征工程方法如word2vec一起进行了研究。第2部分是神经网络的基本原理。训练和正则化的详细讨论在第3章和第4章提供。第5章和第6章介绍了径向基函数(RBF)网络和受限的玻尔兹曼机。第3部分是神经网络的高级主题:第7章和第8章讨论了循环神经网络和卷积神经网络。第9章和第10章介绍了几个高级主题,如深度强化学习、神经图像机、Kohonen自组织映射和生成对抗网络。这本书是为研究生、研究人员和实践者编写的。大量的练习和一个解决方案手册,以帮助在课堂教学。在可能的情况下,突出显示以应用程序为中心的视图,以便提供对每一类技术的实际用途的理解。
【目录】
译者序

前言

致谢

作者简介

第1章神经网络概论111简介1

1.2神经网络的基本架构3

1.2.1单层计算网络:感知机3

1.2.2多层神经网络13

1.2.3多层网络即计算图15

1.3利用反向传播训练神经网络16

1.4神经网络训练中的实际问题19

1.4.1过拟合问题19

1.4.2梯度消失与梯度爆炸问题22

1.4.3收敛问题22

1.4.4局部和伪22

1.4.5计算上的挑战23

1.5复合函数的能力之谜23

1.5.1非线性激活函数的重要性25

1.5.2利用深度以减少参数26

1.5.3非常规网络架构27

1.6常见网络架构28

1.6.1浅层模型模拟基础机器学习方法28

1.6.2径向基函数网络29

1.6.3受限玻尔兹曼机29

1.6.4循环神经网络30

1.6.5卷积神经网络31

1.6.6层次特征工程与预训练模型32

1.7高级主题34

1.7.1强化学习34

1.7.2分离数据存储和计算34

1.7.3生成对抗网络35

1.8两个基准35

1.8.1MNIST手写数字数据库35

1.8.2ImageNet数据库36

1.9总结37

1.10参考资料说明37

1.101视频讲座38

1.102软件资源39

1.11练习39

第2章基于浅层神经网络的机器学习41

2.1简介41

2.2二分类模型的神经架构42

2.2.1复习感知机42

2.2.2小二乘回归44

2.2.3逻辑回归47

2.2.4支持向量机49

2.3多分类模型的神经架构50

2.3.1多分类感知机51

2.3.2WestonWatkins支持向量机52

2.3.3多重逻辑回归(softmax分类器)53

2.3.4应用于多分类的分层softmax54

2.4反向传播可以用于特征选择和神经网络的可解释性54

2.5使用自编码器进行矩阵分解55

2.5.1自编码器的基本原则55

2.5.2非线性激活函数59

2.5.3深度自编码器60

2.5.4应用于离群点检测62

2.5.5当隐藏层比输入层维数高时63

2.5.6其他应用63

2.5.7推荐系统:行索引到行值的预测65

2.5.8讨论67

2.6word2vec:简单神经架构的应用67

2.6.1连续词袋的神经嵌入68

2.6.2skipgram模型的神经嵌入70

2.6.3word2vec(SGNS)是逻辑矩阵分解74

2.6.4原始skipgram模型是多项式矩阵分解76

2.7图嵌入的简单神经架构76

2.7.1处理任意数量的边78

2.7.2多项式模型78

2.7.3与DeepWalk和node2vec的联系78

2.8总结78

2.9参考资料说明79

2.10练习80

第3章深度神经网络的训练823.1简介82

3.2反向传播的详细讨论83

3.2.1计算图抽象中的反向传播83

3.2.2前来拯救的动态规划87

3.2.3使用激活后变量的反向传播88

3.2.4使用激活前变量的反向传播89

3.2.5不同激活函数的更新示例91

3.2.6以向量为中心的反向传播的解耦视图92

3.2.7多输出节点及隐藏节点下的损失函数94

3.2.8小批量随机梯度下降95

3.2.9用于解决共享权重的反向传播技巧96

3.2.10检查梯度计算的正确性97

3.3设置和初始化问题98

3.3.1调整超参数98

3.3.2特征预处理99

3.3.3初始化100

3.4梯度消失和梯度爆炸问题101

3.4.1对梯度比例影响的几何理解102

3.4.2部分解决:激活函数的选择103

3.4.3死亡神经元和“脑损伤”104

3.5梯度下降策略105

3.5.1学习率衰减105

3.5.2基于动量的学习106

3.5.3参数特异的学习率108

3.5.4悬崖和高阶不稳定性111

3.5.5梯度截断112

3.5.6二阶导数112

3.5.7Polyak平均118

3.5.8局部极小值和伪极小值119

3.6批归一化120

3.7加速与压缩的实用技巧123

3.7.1GPU加速123

3.7.2并行和分布式实现125

3.7.3模型压缩的算法技巧126

3.8总结128

3.9参考资料说明128

3.10练习130

第4章让深度学习器学会泛化132

4.1简介132

4.2偏差方差权衡135

4.3模型调优和评估中的泛化问题138

4.3.1用留出法和交叉验证法进行评估139

4.3.2大规模训练中的问题140

4.3.3如何检测需要收集更多的数据141

4.4基于惩罚的正则化141

4.4.1与注入噪声的联系142

4.4.2L1正则化143

4.4.3选择L1正则化还是L2正则化143

4.4.4对隐藏单元进行惩罚:学习稀疏表示144

4.5集成方法145

4.5.1装袋和下采样145

4.5.2参数模型选择和平均146

4.5.3随机连接删除146

4.5.4Dropout147

4.5.5数据扰动集成149

4.6早停149

4.7无监督预训练150

4.7.1无监督预训练的变体153

4.7.2如何进行监督预训练154

4.8继续学习与课程学习154

4.8.1继续学习155

4.8.2课程学习156

4.9共享参数156

4.10无监督应用中的正则化157

4.101基于值的惩罚:稀疏自编码器157

4.102噪声注入:去噪自编码器157

4.103基于梯度的惩罚:收缩自编码器158

4.104隐藏层概率结构:变分自编码器161

4.11总结166

4.12参考资料说明166

4.13练习168

第5章径向基函数网络169

5.1简介169

5.2RBF网络的训练171

5.2.1训练隐藏层171
点击展开 点击收起

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP