¥ 13.12 1.1折 ¥ 119 九品
仅1件
作者猿辅导研究团队 著
出版社电子工业出版社
出版时间2018-02
版次1
装帧平装
货号A6
上书时间2024-12-09
《深度学习核心技术与实践》主要介绍深度学习的核心算法,以及在计算机视觉、语音识别、自然语言处理中的相关应用。本书的作者们都是业界第一线的深度学习从业者,所以书中所写内容和业界联系紧密,所涵盖的深度学习相关知识点比较全面。本书主要讲解原理,较少贴代码。本书适合深度学习从业人士或者相关研究生作为参考资料,也可以作为入门教程来大致了解深度学习的相关前沿技术。
猿辅导应用研究团队成立于2014年年中,一直从事深度学习在教育领域的应用和研究工作。团队成员均毕业于北京大学、清华大学、上海交大、中科院、香港大学等知名高校,大多数拥有硕士或博士学位。研究方向涵盖了图像识别、语音识别、自然语言理解、数据挖掘、深度学习等领域。团队成功运用深度学习技术,从零开始打造出活跃用户过亿的拍照搜题APP――小猿搜题,开源了分布式机器学习系统ytk-learn和分布式通信系统ytk-mp4j。此外,团队自主研发的一系列成果均成功应用到猿辅导公司的产品中。包括:速算应用中的在线手写识别、古诗词背诵中的语音识别、英语口语智能批改、英文手写拍照识别和英语作文智能批改等技术。
第1 部分深度学习基础篇1
1 概述
1.1 人工智能
1.1.1 人工智能的分类
1.1.2 人工智能发展史
1.2 机器学习
1.2.1 机器学习的由来
1.2.2 机器学习发展史
1.2.3 机器学习方法分类
1.2.4 机器学习中的基本概念
1.3 神经网络
1.3.1 神经网络发展史
参考文献
2 神经网络
2.1 在神经科学中对生物神经元的研究
2.1.1 神经元激活机制
2.1.2 神经元的特点
2.2 神经元模型
2.2.1 线性神经元
2.2.2 线性阈值神经元
2.2.3 Sigmoid 神经元
2.2.4 Tanh 神经元
2.2.5 ReLU
2.2.6 Maxout
2.2.7 Softmax
2.2.8 小结
2.3 感知机
2.3.1 感知机的提出
2.3.2 感知机的困境
2.4 DNN
2.4.1 输入层、输出层及隐层
2.4.2 目标函数的选取
2.4.3 前向传播
2.4.4 后向传播
2.4.5 参数更新
2.4.6 神经网络的训练步骤
参考文献
3 初始化模型
3.1 受限玻尔兹曼机
3.1.1 能量模型
3.1.2 带隐藏单元的能量模型
3.1.3 受限玻尔兹曼机基本原理
3.1.4 二值RBM
3.1.5 对比散度
3.2 自动编码器
3.2.1 稀疏自动编码器
3.2.2 降噪自动编码器
3.2.3 栈式自动编码器
3.3 深度信念网络
参考文献
4 卷积神经网络
4.1 卷积算子
4.2 卷积的特征
4.3 卷积网络典型结构
4.3.1 基本网络结构
4.3.2 构成卷积神经网络的层
4.3.3 网络结构模式
4.4 卷积网络的层
4.4.1 卷积层
4.4.2 池化层
参考文献
5 循环神经网络
5.1 循环神经网络简介
5.2 RNN、LSTM 和GRU
5.3 双向RNN
5.4 RNN 语言模型的简单实现
参考文献
6 深度学习优化算法
6.1 SGD
6.2 Momentum
6.3 NAG
6.4 Adagrad
6.5 RMSProp
6.6 Adadelta
6.7 Adam
6.8 AdaMax
6.9 Nadam
6.10 关于优化算法的使用
参考文献
7 深度学习训练技巧
7.1 数据预处理
7.2 权重初始化
7.3 正则化
7.3.1 提前终止
7.3.2 数据增强
7.3.3 L2/L1 参数正则化
7.3.4 集成100
7.3.5 Dropout
参考文献
8 深度学习框架
8.1 Theano
8.1.1 Theano
8.1.2 安装
8.1.3 计算图
8.2 Torch
8.2.1 概述
8.2.2 安装
8.2.3 核心结构
8.2.4 小试牛刀
8.3 PyTorch
8.3.1 概述
8.3.2 安装
8.3.3 核心结构
8.3.4 小试牛刀
8.4 Caffe
8.4.1 概述
8.4.2 安装
8.4.3 核心组件
8.4.4 小试牛刀
8.5 TensorFlow
8.5.1 概述
8.5.2 安装
8.5.3 核心结构
8.5.4 小试牛刀
8.6 MXNet
8.6.1 概述
8.6.2 安装
8.6.3 核心结构
8.6.4 小试牛刀
8.7 Keras
8.7.1 概述
8.7.2 安装
8.7.3 模块介绍
8.7.4 小试牛刀
参考文献
第2 部分计算机视觉篇
9 计算机视觉背景
9.1 传统计算机视觉
9.2 基于深度学习的计算机视觉
9.3 参考文献
10 图像分类模型
10.1 LeNet-5
10.2 AlexNet
10.3 VGGNet
10.3.1 网络结构
10.3.2 配置
10.3.3 讨论
10.3.4 几组实验
10.4 GoogLeNet
10.4.1 NIN
10.4.2 GoogLeNet 的动机
10.4.3 网络结构细节
10.4.4 训练方法
10.4.5 后续改进版本
10.5 ResNet
10.5.1 基本思想
10.5.2 网络结构
10.6 DenseNet
10.7 DPN
参考文献
11 目标检测
11.1 相关研究
11.1.1 选择性搜索
11.1.2 OverFeat
11.2 基于区域提名的方法
11.2.1 R-CNN
11.2.2 SPP-net
11.2.3 Fast R-CNN
11.2.4 Faster R-CNN
11.2.5 R-FCN
11.3 端到端的方法
11.3.1 YOLO
11.3.2 SSD
11.4 小结
参考文献
12 语义分割
12.1 全卷积网络
12.1.1 FCN
12.1.2 DeconvNet
12.1.3 SegNet
12.1.4 DilatedConvNet
12.2 CRF/MRF 的使用
12.2.1 DeepLab
12.2.2 CRFasRNN
12.2.3 DPN
12.3 实例分割
12.3.1 Mask R-CNN
参考文献
13 图像检索的深度哈希编码
13.1 传统哈希编码方法
13.2 CNNH
13.3 DSH
13.4 小结
参考文献
第3 部分语音识别篇
14 传统语音识别基础
14.1 语音识别简介
14.2 HMM 简介
14.2.1 HMM 是特殊的混合模型
14.2.2 转移概率矩阵
14.2.3 发射概率
14.2.4 Baum-Welch 算法
14.2.5 后验概率
14.2.6 前向-后向算法
14.3 HMM 梯度求解
14.3.1 梯度算法1
14.3.2 梯度算法2
14.3.3 梯度求解的重要性
14.4 孤立词识别
14.4.1 特征提取
14.4.2 孤立词建模
14.4.3 GMM-HMM
14.5 连续语音识别
14.6 Viterbi 解码
14.7 三音素状态聚类
14.8 判别式训练
参考文献
15 基于WFST 的语音解码
15.1 有限状态机
15.2 WFST 及半环定义
15.2.1 WFST
15.2.2 半环(Semiring)
15.3 自动机操作
15.3.1 自动机基本操作
15.3.2 转换器基本操作
15.3.3 优化操作
15.4 基于WFST 的语音识别系统
15.4.1 声学模型WFST
15.4.2 三音素WFST
15.4.3 发音字典WFST
15.4.4 语言模型WFST
15.4.5 WFST 组合和优化
15.4.6 组合和优化实验
15.4.7 WFST 解码
参考文献
16 深度语音识别
16.1 CD-DNN-HMM
16.2 TDNN
16.3 CTC
16.4 EESEN
16.5 Deep Speech
16.6 Chain
参考文献
17 CTC 解码
17.1 序列标注
17.2 序列标注任务的解决办法
17.2.1 序列分类
17.2.2 分割分类
17.2.3 时序分类
17.3 隐马模型
17.4 CTC 基本定义
17.5 CTC 前向算法
17.6 CTC 后向算法
17.7 CTC 目标函数
17.8 CTC 解码基本原理
17.8.1 最大概率路径解码
17.8.2 前缀搜索解码
17.8.3 约束解码
参考文献
第4 部分自然语言处理篇
18 自然语言处理简介
18.1 NLP 的难点
18.2 NLP 的研究范围
19 词性标注
19.1 传统词性标注模型
19.2 基于神经网络的词性标注模型
19.3 基于Bi-LSTM 的神经网络词性标注模型
参考文献
20 依存句法分析
20.1 背景
20.2 SyntaxNet 技术要点
20.2.1 Transition-based 系统
20.2.2 “模板化” 技术
20.2.3 Beam Search
参考文献
21 word2vec
21.1 背景
21.1.1 词向量
21.1.2 统计语言模型
21.1.3 神经网络语言模型
21.1.4 Log-linear 模型
21.1.5 Log-bilinear 模型
21.1.6 层次化Log-bilinear 模型
21.2 CBOW 模型
21.3 Skip-gram 模型
21.4 Hierarchical Softmax 与Negative Sampling
21.5 fastText
21.6 GloVe
21.7 小结
参考文献
22 神经网络机器翻译
22.1 机器翻译简介
22.2 神经网络机器翻译基本模型
22.3 基于Attention 的神经网络机器翻译
22.4 谷歌机器翻译系统GNMT
22.5 基于卷积的机器翻译
22.6 小结
参考文献
第5 部分深度学习研究篇
23 Batch Normalization
23.1 前向与后向传播
23.1.1 前向传播
23.1.2 后向传播
23.2 有效性分析
23.2.1 内部协移
23.2.2 梯度流
23.3 使用与优化方法
23.4 小结
参考文献
24 Attention
24.1 从简单RNN 到RNN + Attention
24.2 Soft Attention 与Hard Attention
24.3 Attention 的应用
24.4 小结
参考文献
25 多任务学习
25.1 背景
25.2 什么是多任务学习
25.3 多任务分类与其他分类概念的关系
25.3.1 二分类
25.3.2 多分类
25.3.3 多标签分类
25.3.4 相关关系
25.4 多任务学习如何发挥作用
25.4.1 提高泛化能力的潜在原因
25.4.2 多任务学习机制
25.4.3 后向传播多任务学习如何发现任务是相关的
25.5 多任务学习被广泛应用
25.5.1 使用未来预测现在
25.5.2 多种表示和度量
25.5.3 时间序列预测
25.5.4 使用不可操作特征
25.5.5 使用额外任务来聚焦
25.5.6 有序迁移
25.5.7 多个任务自然地出现
25.5.8 将输入变成输出
25.6 多任务深度学习应用
25.6.1 脸部特征点检测
25.6.2 DeepID2
25.6.3 Fast R-CNN
25.6.4 旋转人脸网络
25.6.5 实例感知语义分割的MNC
25.7 小结
参考文献
26 模型压缩
26.1 模型压缩的必要性
26.2 较浅的网络
26.3 剪枝
26.4 参数共享
26.5 紧凑网络
26.6 二值网络
26.7 小结
参考文献
27 增强学习
27.1 什么是增强学习
27.2 增强学习的数学表达形式
27.2.1 MDP
27.2.2 策略函数
27.2.3 奖励与回报
27.2.4 价值函数
27.2.5 贝尔曼方程
27.2.6 最优策略性质
27.3 用动态规划法求解增强学习问题
27.3.1 Agent 的目标
27.3.2 策略评估
27.3.3 策略改进
27.3.4 策略迭代
27.3.5 策略迭代的例子
27.3.6 价值迭代
27.3.7 价值迭代的例子
27.3.8 策略函数和价值函数的关系
27.4 无模型算法
27.4.1 蒙特卡罗法
27.4.2 时序差分法
27.4.3 Q-Learning
27.5 Q-Learning 的例子
27.6 AlphaGo 原理剖析
27.6.1 围棋与机器博弈
27.6.2 Alpha-Beta 树
27.6.3 MCTS
27.6.4 UCT
27.6.5 AlphaGo 的训练策略
27.6.6 AlphaGo 的招式搜索算法
27.6.7 围棋的对称性
27.7 AlphaGo Zero
参考文献
28 GAN
28.1 生成模型
28.2 生成对抗模型的概念
28.3 GAN 实战
28.4 InfoGAN――探寻隐变量的内涵
28.5 Image-Image Translation
28.6 WGAN(Wasserstein GAN)
28.6.1 GAN 目标函数的弱点
28.6.2 Wasserstein 度量的优势
28.6.3 WGAN 的目标函数
参考文献
A 本书涉及的开源资源列表
— 没有更多了 —
以下为对购买帮助不大的评价