• 解剖深度学习原理:从0编写深度学习库
21年品牌 40万+商家 超1.5亿件商品

解剖深度学习原理:从0编写深度学习库

正版图书,可开发票,请放心购买。

83.03 5.3折 158 全新

仅1件

广东广州
认证卖家担保交易快速发货售后保障

作者董洪伟著

出版社电子工业出版社

ISBN9787121414497

出版时间2021-08

装帧平装

开本16开

定价158元

货号31191478

上书时间2024-02-22

淘书宝店

九年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介
"哈尔滨工业大学数学力学系应用数学本科、基础数学硕士,南京航空航天大学航空宇航制造工程专业博士。2008-2009年德州农工大学tamu访问学者,2016年休斯敦大学访问研究。从事过曲面造型、特征造型的算法研究和系统实现,开发过数控玻璃切割系统。在高校从事过高等数学、线性代数、概率统计、数据结构、C++编程语言、图形学、计算机网络等课程教学,目前主要研究方向:计算机图形学与计算机视觉、深度学习人工智能等。编著了《C++17从入门到精通》《Python 3从入门到实战》等书。 
"

目录
第1章 编程和数学基础1
1.1 Python快速入门1
1.1.1 快速安装Python1
1.1.2 Python基础2
1.1.3 Python中的常见运算5
1.1.4 Python控制语句7
1.1.5 Python常用容器类型10
1.1.6 Python常用函数16
1.1.7 类和对象22
1.1.8 Matplotlib入门24
1.2 张量库NumPy33
1.2.1 什么是张量33
1.2.2 创建ndarray对象37
1.2.3 ndarray数组的索引和切片53
1.2.4 张量的计算57
1.3 微积分63
1.3.1 函数64
1.3.2 四则运算和复合运算66
1.3.3 极限和导数69
1.3.4 导数的四则运算和链式法则72
1.3.5 计算图、正向计算和反向传播求导74
1.3.6 多变量函数的偏导数与梯度75
1.3.7 向量值函数的导数与Jacobian矩阵78
1.3.8 积分83
1.4 概率基础84
1.4.1 概率84
1.4.2 条件概率、联合概率、全概率公式、贝叶斯公式86
1.4.3 随机变量88
1.4.4 离散型随机变量的概率分布89
1.4.5 连续型随机变量的概率密度91
1.4.6 随机变量的分布函数93
1.4.7 期望、方差、协方差、协变矩阵95
第2章 梯度下降法99
2.1 函数极值的必要条件99
2.2 梯度下降法基础101
2.3 梯度下降法的参数优化策略108
2.3.1 Momentum法108
2.3.2 AdaGrad法110
2.3.3 AdaDelta法112
2.3.4 RMSprop法114
2.3.5 Adam法115
2.4 梯度验证117
2.4.1 比较数值梯度和分析梯度117
2.4.2 通用的数值梯度118
2.5 分离梯度下降法与参数优化策略119
2.5.1 参数优化器119
2.5.2 接受参数优化器的梯度下降法120
第3章 线性回归、逻辑回归和softmax回归122
3.1 线性回归122
3.1.1 餐车利润问题122
3.1.2 机器学习与人工智能123
3.1.3 什么是线性回归126
3.1.4 用正规方程法求解线性回归问题127
3.1.5 用梯度下降法求解线性回归问题129
3.1.6 调试学习率133
3.1.7 梯度验证135
3.1.8 预测135
3.1.9 多特征线性回归136
3.2 数据的规范化143
3.2.1 预测大坝出水量143
3.2.2 数据的规范化过程147
3.3 模型的评估149
3.3.1 欠拟合和过拟合149
3.3.2 验证集和测试集153
3.3.3 学习曲线155
3.3.4 偏差和方差160
3.4 正则化165
3.5 逻辑回归168
3.5.1 逻辑回归基础169
3.5.2 逻辑回归的NumPy实现173
3.5.3 实战:鸢尾花分类的NumPy实现178
3.6 softmax回归180
3.6.1 spiral数据集180
3.6.2 softmax函数181
3.6.3 softmax回归模型186
3.6.4 多分类交叉熵损失188
3.6.5 通过加权和计算交叉熵损失191
3.6.6 softmax回归的梯度计算191
3.6.7 softmax回归的梯度下降法的实现197
3.6.8 spiral数据集的softmax回归模型197
3.7 批梯度下降法和随机梯度下降法199
3.7.1 MNIST手写数字集199
3.7.2 用部分训练样本训练逻辑回归模型201
3.7.3 批梯度下降法202
3.7.4 随机梯度下降法207
第4章 神经网络209
4.1 神经网络概述209
4.1.1 感知机和神经元209
4.1.2 激活函数213
4.1.3 神经网络与深度学习216
4.1.4 多个样本的正向计算221
4.1.5 输出224
4.1.6 损失函数224
4.1.7 基于数值梯度的神经网络训练229
4.2 反向求导235
4.2.1 正向计算和反向求导235
4.2.2 计算图237
4.2.3 损失函数关于输出的梯度239
4.2.4 2层神经网络的反向求导242
4.2.5 2层神经网络的Python实现247
4.2.6 任意层神经网络的反向求导252
4.3 实现一个简单的深度学习框架256
4.3.1 神经网络的训练过程256
4.3.2 网络层的代码实现257
4.3.3 网络层的梯度检验260
4.3.4 神经网络的类261
4.3.5 神经网络的梯度检验263
4.3.6 基于深度学习框架的MNIST手写数字识别266
4.3.7 改进的通用神经网络框架:分离加权和与激活函数268
4.3.8 独立的参数优化器276
4.3.9 fashion-mnist的分类训练279
4.3.10 读写模型参数282
第5章 改进神经网络性能的基本技巧285
5.1 数据处理285
5.1.1 数据增强285
5.1.2 规范化289
5.1.3 特征工程289
5.2 参数调试296
5.2.1 权重初始化296
5.2.2 优化参数301
5.3 批规范化301
5.3.1 什么是批规范化301
5.3.2 批规范化的反向求导303
5.3.3 批规范化的代码实现304
5.4 正则化310
5.4.1 权重正则化310
5.4.2 Dropout312
5.4.3 早停法316
5.5 梯度爆炸和梯度消失317
第6章 卷积神经网络318
6.1 卷积入门319
6.1.1 什么是卷积319
6.1.2 一维卷积325
6.1.3 二维卷积326
6.1.4 多通道输入和多通道输出338
6.1.5 池化341
6.2 卷积神经网络概述344
6.2.1 全连接神经元和卷积神经元345
6.2.2 卷积层和卷积神经网络346
6.2.3 卷积层和池化层的反向求导及代码实现349
6.2.4 卷积神经网络的代码实现361
6.3 卷积的矩阵乘法364
6.3.1 一维卷积的矩阵乘法364
6.3.2 二维卷积的矩阵乘法365
6.3.3 一维卷积反向求导的矩阵乘法371
6.3.4 二维卷积反向求导的矩阵乘法373
6.4 基于坐标索引的快速卷积377
6.5 典型卷积神经网络结构393
6.5.1 LeNet-5393
6.5.2 AlexNet394
6.5.3 VGG395
6.5.4 残差网络396
6.5.5 Inception网络398
6.5.6 NiN399
第7章 循环神经网络403
7.1 序列问题和模型403
7.1.1 股票价格预测问题404
7.1.2 概率序列模型和语言模型405
7.1.3 自回归模型406
7.1.4 生成自回归数据406
7.1.5 时间窗方法408
7.1.6 时间窗采样409
7.1.7 时间窗方法的建模和训练409
7.1.8 长期预测和短期预测410
7.1.9 股票价格预测的代码实现412
7.1.10 k-gram语言模型415
7.2 循环神经网络基础416
7.2.1 无记忆功能的非循环神经网络417
7.2.2 具有记忆功能的循环神经网络418
7.3 穿过时间的反向传播421
7.4 单层循环神经网络的实现425
7.4.1 初始化模型参数425
7.4.2 正向计算425
7.4.3 损失函数427
7.4.4 反向求导427
7.4.5 梯度验证429
7.4.6 梯度下降训练432
7.4.7 序列数据的采样433
7.4.8 序列数据的循环神经网络训练和预测441
7.5 循环神经网络语言模型和文本的生成448
7.5.1 字符表448
7.5.2 字符序列样本的采样450
7.5.3 模型的训练和预测452
7.6 循环神经网络中的梯度爆炸和梯度消失455
7.7 长短期记忆网络456
7.7.1 LSTM的神经元457
7.7.2 LSTM的反向求导460
7.7.3 LSTM的代码实现461
7.7.4 LSTM的变种469
7.8 门控循环单元470
7.8.1 门控循环单元的工作原理470
7.8.2 门控循环单元的代码实现472
7.9 循环神经网络的类及其实现475
7.9.1 用类实现循环神经网络475
7.9.2 循环神经网络单元的类实现483
7.10 多层循环神经网络和双向循环神经网络491
7.10.1 多层循环神经网络491
7.10.2 多层循环神经网络的训练和预测497
7.10.3 双向循环神经网络500
7.11 Seq2Seq模型506
7.11.1 机器翻译概述507
7.11.2 Seq2Seq模型的实现508
7.11.3 字符级的Seq2Seq模型516
7.11.4 基于Word2Vec的Seq2Seq模型522
7.11.5 基于词嵌入层的Seq2Seq模型533
7.11.6 注意力机制541
第8章 生成模型552
8.1 生成模型概述552
8.2 自动编码器556
8.2.1 什么是自动编码器557
8.2.2 稀疏编码器559
8.2.3 自动编码器的代码实现560
8.3 变分自动编码器563
8.3.1 什么是变分自动编码器563
8.3.2 变分自动编码器的损失函数564
8.3.3 变分自动编码器的参数重采样565
8.3.4 变分自动编码器的反向求导565
8.3.5 变分自动编码器的代码实现566
8.4 生成对抗网络571
8.4.1 生成对抗网络的原理573
8.4.2 生成对抗网络训练过程的代码实现577
8.5 生成对抗网络建模实例579
8.5.1 一组实数的生成对抗网络建模579
8.5.2 二维坐标点的生成对抗网络建模585
8.5.3 MNIST手写数字集的生成对抗网络建模590
8.5.4 生成对抗网络的训练技巧594
8.6 生成对抗网络的损失函数及其概率解释594
8.6.1 生成对抗网络的损失函数的全局最优解594
8.6.2 Kullback-Leibler散度和Jensen-Shannon散度595
8.6.3 生成对抗网络的最大似然解释598
8.7 改进的损失函数――Wasserstein GAN599
8.7.1 Wasserstein GAN的原理599
8.7.2 Wasserstein GAN的代码实现603
8.8 深度卷积对抗网络605
8.8.1 一维转置卷积606
8.8.2 二维转置卷积609
8.8.3 卷积对抗网络的代码实现612
参考文献617

内容摘要
本书深入浅出地介绍了深度学习的基本原理和实现过程,带领读者用Python的NumPy库从底层而不是借助现有的深度学习库,从0开始构建属于自己的深度学习库。本书在介绍基本的Python编程、微积分、概率、统计知识的基础上,按照深度学习的发展脉络介绍了回归模型、神经网络、卷积神经网络、循环神经网络、生成对抗网络等深度学习的核心知识,在深入浅出地剖析原理的同时,给出了详细的代码实现过程。本书既适合没有任何深度学习基础的初学者阅读,也适合具有深度学习库使用经验、想了解其底层实现原理的从业人员参考。同时,本书特别适合作为高等院校的深度学习教材。

主编推荐
深度学习是目前人工智能的核心技术,本书从原理到实现,结合实战案例介绍了深度学习的基本理论、网络结构、优化技术和实际应用。

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP