深度学习:从入门到精通(微课版)
¥
22.3
4.5折
¥
49.8
全新
仅1件
作者王汉生 著
出版社人民邮电出版社
出版时间2020-11
版次1
装帧平装
货号9787115537027
上书时间2024-11-17
商品详情
- 品相描述:全新
图书标准信息
-
作者
王汉生 著
-
出版社
人民邮电出版社
-
出版时间
2020-11
-
版次
1
-
ISBN
9787115537027
-
定价
49.80元
-
装帧
平装
-
开本
16开
-
页数
232页
-
字数
321千字
- 【内容简介】
-
本书全面系统地讲解了深度学习相关的知识。全书共8章,内容包括深度学习简介及TensorFlow安装,神经网络基础、神经网络的TensorFlow实现、卷积神经网络基础、经典卷积神经网络(上)、经典卷积神经网络(下)、深度学习用于文本序列和深度学习实验项目等内容。
本书以知识体系为基础,以课堂案例为载体,采取理论与实践相结合的教学模式,通过知识讲解和上机实验,使学生不仅掌握深度学习的理论基础,而且能够实现基本的代码。
- 【作者简介】
-
北京大学光华管理学院商务统计与经济计量系,嘉茂荣聘教授,博导,系主任。在理论研究方面,关注高维数据分析。在业界实践方面,王汉生教授是国内最早从统计数据分析角度关注并研究搜索引擎营销,社交网络数据,以及位置轨迹数据分析的学者。曾与百度合作完成百度分析师高级培训,并担任百度认证专家委员会委员。在推进统计应用在电子商务以及移动互联网应用方面建树颇多。
- 【目录】
-
目录
第 1章 深度学习简介及TensorFlow安装1
【学习目标】1
【导言】1
1.1 机器学习、深度学习与人工智能2
1.1.1 机器学习2
1.1.2 深度学习3
1.1.3 机器学习与深度学习同人工智能的关系4
1.2 深度学习与回归分析5
1.2.1 回归分析理论框架5
1.2.2 深度学习与回归分析的联系6
1.3 深度学习的发展历程7
1.4 深度学习擅长的领域9
1.4.1 图像处理9
1.4.2语音识别12
1.4.3自然语言处理12
1.4.4棋牌竞技13
1.4.5视频处理14
1.5 安装TensorFlow14
1.5.1 TensorFlow和Keras介绍15
1.5.2 硬件环境准备15
1.5.3 软件环境准备16
1.5.4 安装Anaconda17
1.5.5 安装TensorFlow及Keras软件包17
1.5.6 Jupyter Notebook运行深度学习19
课后习题20
第 2章 神经网络基础21
【学习目标】21
【导言】21
2.1 神经网络模型介绍21
2.1.1 M-P神经元模型22
2.1.2 感知机模型23
2.1.3 多层感知机模型24
2.2 激活函数25
2.2.1 sigmoid激活函数26
2.2.2 tanh激活函数27
2.2.3 Relu激活函数28
2.3 神经网络的训练29
2.3.1 神经网络的训练流程29
2.3.2 前向传播算法31
2.3.3 损失函数32
2.3.4 基于梯度下降算法的预备知识33
2.3.5批量梯度下降算法(Mini-batch)35
2.3.6批量梯度下降算法的改进36
2.3.7 反向传播算法38
2.4 神经网络的过拟合及处理方法40
2.4.1 过拟合41
2.4.2 正则化方法42
2.4.3 Dropout方法44
课后习题46
第3章 神经网络的TensorFlow实现47
【学习目标】47
【导言】47
3.1 神经网络的数据结构47
3.1.1 张量及其分类47
3.1.2 张量数据示例49
3.2 图像数据的存储与运算51
3.2.1图像数据的读入与展示52
3.2.2 图像数据的代数运算54
3.3线性回归模型的TensorFlow实现55
3.3.1 线性回归模型55
3.3.2 案例:美食评分56
3.4 逻辑回归模型的TensorFlow实现63
3.4.1 逻辑回归模型63
3.4.2 Softmax回归模型64
3.4.3 案例:手写数字识别65
课后习题70
第4章 卷积神经网络基础71
【学习目标】71
【导言】71
4.1 卷积神经网络的基本结构71
4.2 “卷积”与“池化”的通俗理解72
4.2.1 对卷积的理解72
4.2.2 对池化的理解73
4.3 卷积74
4.3.1 二维离散卷积75
4.3.2 卷积结果的输出尺寸80
4.3.3 多深度的离散卷积81
4.3.4 卷积运算的三个特性90
4.4 池化操作92
4.4.1 same池化92
4.4.2 valid池化99
课后习题105
第5章 经典卷积神经网络(上)106
【学习目标】106
【导言】106
5.1 LeNet-5介绍107
5.1.1 LeNet-5网络结构107
5.1.2 案例:LeNet-5手写数字识别108
5.2 AlexNet介绍113
5.2.1 AlexNet网络结构113
5.2.2 AlexNet创新点114
5.2.3 案例:中文字体识别――隶书和行楷115
5.3 VGG介绍119
5.3.1 VGG网络结构119
5.3.2 案例:加利福尼亚理工学院鸟类数据库分类121
5.4 Batch Normalization技巧127
5.4.1 Batch Normalization核心思想127
5.4.2 带有BN的逻辑回归128
5.4.3 带有BN的宽度模型131
5.4.4 带有BN的深度模型133
5.5 Data Augmentation技巧135
5.5.1 Data Augmentation核心思想135
5.5.2 数据增强实例:猫狗分类136
课后习题140
第6章 经典卷积神经网络(下)141
【学习目标】141
【导言】141
6.1 Inception模型介绍141
6.1.1 Inception网络结构142
6.1.2 案例:Flower分类147
6.2 ResNet模型介绍150
6.2.1 ResNet网络结构150
6.2.2 案例:花的三分类问题154
6.3 DenseNet模型介绍158
6.3.1 DenseNet网络结构158
6.3.2案例:性别区分163
6.4 MobileNet模型介绍167
6.4.1 MobileNet网络结构167
6.4.2 案例:狗的分类172
6.5 迁移学习176
6.5.1 深度学习的现实困难176
6.5.2 迁移学习原理177
6.5.3 Keras中的迁移学习模型178
课后习题182
第7章 深度学习用于文本序列183
【学习目标】183
【导言】183
7.1词嵌入184
7.1.1 词嵌入前期知识184
7.1.2 词嵌入的理论原理187
7.1.3词嵌入的程序实现189
7.2机器“作诗”初级:逻辑回归192
7.2.1 机器“作诗”原理192
7.2.2原理实现:数据处理195
7.2.3原理实现:逻辑回归200
7.3机器“作诗”进阶(1):RNN205
7.3.1 RNN前期知识206
7.3.2 RNN模型介绍208
7.3.3原理实现:数据处理209
7.3.4原理实现:RNN作诗213
7.4 机器“作诗”进阶(2):LSTM216
7.4.1 LSTM前期知识216
7.4.2 LSTM模型介绍219
7.4.3 原理实现:数据准备224
7.4.4原理实现:LSTM代码实现225
7.5 文本序列应用实例:机器翻译228
7.5.1机器翻译原理228
7.5.2 案例:中英文翻译234
课后习题242
第8章 深度学习实验项目243
【学习目标】243
【导言】243
8.1实验一:LeNet模型244
8.2实验二:AlexNet模型244
8.3 实验三:VGG 16模型244
8.4 实验四:Inception V3模型245
8.5 实验五:ResNet模型245
8.6 实验六:DenseNet模型246
8.7 实验七:MobileNet模型246
8.8 实验八:逻辑回归作诗247
8.9 实验九:RNN模型作诗247
8.10 实验十:LSTM模型作诗248
点击展开
点击收起
— 没有更多了 —
以下为对购买帮助不大的评价