深度学习(理论方法与PyTorch实践)
全新正版 极速发货
¥
50.69
4.7折
¥
109
全新
仅1件
作者编者:翟中华//孟翔宇|责编:赵佳霓
出版社清华大学
ISBN9787302568483
出版时间2021-08
装帧平装
开本其他
定价109元
货号31236554
上书时间2024-08-10
商品详情
- 品相描述:全新
- 商品描述
-
作者简介
\\\"翟中华清华大学硕士毕业,北京洪策元创智能科技有限公司CEO,AI火箭营首席讲师。在机器学习、深度学习、计算机视觉、自然语言处理等人工智能领域有扎实的理论基础和丰富的应用实践经验。主讲的课程“深度学习入门系列讲解”“PyTorch深度学习实战”等累计学员约50万人次,讲课风格抽丝剥茧、尝入浅出、以简驭繁,能够把复杂的原理简单化,把简单的原理内涵化,深受广大学员的认可。
孟翔宇华中科技大学软件工程硕士,现就职于阿里巴巴集团(杭州),先后从事面向B类外贸电商的商家生命周期建模、计算广告相关性匹配和推荐广告召回等领域的研究和实践工作。拥有工业海量数据场景下的建模理论和实战经验,对多种机器学习、深度学习和强化学习模型有着浓厚的兴趣和较深的理解。\\\"
目录
基础篇
第1章 什么是深度学习
1.1 通过应用示例直观理解深度学习
1.2 3个视角解释深度学习
1.2.1 分层组合性
1.2.2 端到端学习
1.2.3 分布式表示
1.3 深度学习面临的挑战
1.3.1 深度学习的工作机制
1.3.2 非凸的问题
1.3.3 可解释性的问题
第2章 图像识别及K-NN算法
2.1 图像分类
2.2 误差分解和K-NN算法
2.2.1 误差分解
2.2.2 K-NN算法运行过程
第3章 线性分类器
3.1 线性分类器用于图像分类的3个观点
3.1.1 线性分类的代数观点
3.1.2 线性分类的视觉观点
3.1.3 线性分类的几何观点
3.2 合页损失函数原理推导及图像分类举例
3.2.1 合页损失函数的概念
3.2.2 多分类合页损失函数的推导
3.3 Softmax损失函数与多分类SVM损失函数的比较
3.3.1 Softmax分类与损失函数
3.3.2 Softmax损失函数与合页损失函数的比较
第4章 优化与梯度
4.1 梯度下降法工作原理及3种普通梯度下降法
4.1.1 梯度下降的概念
4.1.2 梯度下降法求解目标函数
4.1.3 学习率的重要性
4.1.4 3种梯度下降法
4.2 动量SGD和Nesterov加速梯度法
4.2.1 SGD存在的问题
4.2.2 动量法
4.2.3 Nesterov加速梯度法
4.3 自适应学习速率优化方法
4.3.1 指数加权平均值处理数字序列
4.3.2 自适应学习速率AdaGrad方法
4.3.3 自适应学习速率RMSProp方法
4.3.4 自适应学习速率Adadelta方法
4.4 最强优化方法Adam
4.4.1 为什么Adam性能如此卓越
4.4.2 偏差矫正
4.4.3 如何矫正偏差
第5章 卷积神经网络
5.1 卷积核
5.1.1 卷积核简介
5.1.2 卷积核的作用
内容摘要
本书深入浅出地讲解深度学习,对复杂的概念深挖其本质,让其简单化;对简
单的概念深挖其联系,使其丰富化。从理论知识到实战项目,内容翔实。
本书分为两篇,基础篇主要讲解深度学习的理论知识,实战篇是代码实践及应用。基础篇(第1~13章)包括由传统机器学习到深度学习的过渡、图像分类的数据驱动方法、Softmax损失函数、优化方法与梯度、卷积神经网络的各种概念、卷积过程、卷积神经网络各种训练技巧、梯度反传、各种卷积网络架构、递归神经网络和序列模型、基于深度学习的语言模型、生成模型、
生成对抗网络等内容;实战篇(第14~19章)包括应用卷积神经网络进行图像分类、各种网络架构、网络各层可视化、猫狗图像识别、
文本分类、GAN图像生成等。
本书适合人工智能专业的本科生、研究生,想转型人工智能的IT从业者,以及想从零开始了解并掌握深度学习的读者阅读。
— 没有更多了 —
以下为对购买帮助不大的评价