深度学习必学的十个问题——理论与实践9787302577164
正版图书,可开发票,请放心购买。
¥
31.24
6.3折
¥
49.8
全新
仅1件
作者李轩涯,张暐
出版社清华大学出版社有限公司
ISBN9787302577164
出版时间2020-06
装帧平装
开本16开
定价49.8元
货号11196659
上书时间2024-12-16
商品详情
- 品相描述:全新
- 商品描述
-
作者简介
李轩涯,单位:百度公司,职务、职称:高级工程师,性别:男,年龄:33,专业:计算机科学与技术,学历:博士,研究成果:中国计算机学会杰出会员、常务理事,中国计算机实践教育联合会副理事长。现主管百度校企合作、校企联合人才培养、校园粉丝生态圈,帮助百度技术、人才及产品品牌在高校领域的推广与影响力传播。
目录
第1章作为机器学习模型的神经网络
1.1表示学习
1.2感知器与神经网络
1.3使用keras
第2章神经网络的训练
2.1基于梯度的一阶优化
2.2基于梯度的二阶优化
2.3普通训练方法的局限
2.4误差反向传播算法的本质
2.5使用keras
第3章神经网络的优化难题
3.1局部极小值,鞍点和非凸优化
3.2随机梯度下降的优势
3.3梯度方向优化
3.4动态调整学习率
3.5使用keras
第4章神经网络的过拟合
4.1参数绑定和提前终止
4.2数据增强和噪声添加
4.3Dropout
4.4使用keras
第5章神经网络的神经单元
5.1梯度消失和梯度爆炸
5.2隐藏单元设计原则和sigmoid的非零中心
5.3基于线性函数的改进和maxout单元
5.4使用keras
第6章神经网络的深度训练
6.1预处理和批标准化
6.2批标准化的不同视角: 协变量偏差和协调更新
6.3自归一化神经网络
6.4ResNet
6.5使用keras
第7章卷积神经网络
7.1局部连接和权重共享
7.2卷积操作的重要概念
7.3卷积核的参数学习
7.4基于感受野的三个卷积技巧
7.5使用keras
第8章循环神经网络
8.1理解循环结构
8.2循环结构的参数学习
8.3正交初始化和记忆容量
8.4理解LSTM
8.5使用keras
第9章无监督表示学习: 自编码器
9.1自编码器
9.2稀疏自编码器
9.3收缩自编码器
9.4使用keras
第10章概率生成模型
10.1变分自编码器
10.2生成对抗网络
10.3使用keras
参考文献
内容摘要
深度学习是目前很流行的技术领域。本书兼顾了数学上的理解和代码实践,内容主要包括基础知识和深度学习模型。章介绍深度学习的简洁发展思路和表示学习机制;第2章、第3章介绍神经网络的基于梯度的优化方法、神经网络的优化难点以及相应的解决方法;第4章讨论神经网络遇到的过拟合问题;第5章分析神经网络的很小组成部分——神经元;第6章讨论三种方案解决深层网络的训练难题:批标准化、SELU、ResNet;第7章、第8章讲述了两种重要的神经网络模型:卷积神经网络和循环神经网络;第9章讨论了对于神经网络的无监督学习方式;0章详细讨论以变分自编码器和对抗生成网络为代表的概率生成网络。本书适合对于深度学习感兴趣的大学生、工程师阅读参考。阅读本书需要具备基础的Python编程技术和基本的数学知识。
主编推荐
本书既强调对深度学习理论的深入理解,同时用代码实践结合理论的讲解。
精彩内容
深度学习是目前***的技术领域。本书兼顾了数学上的理解和代码实践,内容主要包括基础知识和深度学习模型。第1章 介绍深度学习的简洁发展思路和表示学习机制; 第2章、第3章介绍神经网络的基于梯度的优化方法、神经网络的优化难点以及相应的解决方法; 第4章讨论神经网络遇到的过拟合问题; 第5章分析神经网络的最小组成部分——神经元; 第6章讨论三种方案解决深层网络的训练难题: 批标准化、SELU、ResNet; 第7章、第8章讲述了两种重要的神经网络模型: 卷积神经网络和循环神经网络; 第9章讨论了对于神经网络的无监督学习方式; 第10章详细讨论以变分自编码器和对抗生成网络为代表的概率生成网络。 本书适合对于深度学习感兴趣的大学生、工程师阅读参考。阅读本书需要具备基础的Python编程技术和基本的数学知识。
媒体评论
本书既强调对深度学习理论的深入理解,同时用代码实践结合理论的讲解。
— 没有更多了 —
以下为对购买帮助不大的评价