• 解剖深度学习原理:从0编写深度学习库
21年品牌 40万+商家 超1.5亿件商品

解剖深度学习原理:从0编写深度学习库

57 3.6折 158 九五品

仅1件

北京通州
认证卖家担保交易快速发货售后保障

作者董洪伟 著

出版社电子工业出版社

ISBN9787121414497

出版时间2021-08

版次1

装帧平装

开本16开

纸张胶版纸

页数618页

字数99999千字

定价158元

上书时间2024-04-15

灵感飞驰

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:九五品
商品描述
基本信息
书名:解剖深度学习原理:从0编写深度学习库
定价:158.00元
作者:董洪伟 著
出版社:电子工业出版社
出版日期:2021-08-01
ISBN:9787121414497
字数:685000
页码:618
版次:
装帧:平装
开本:16开
商品重量:
编辑推荐
适读人群 :没有任何深度学习基础的初学者;具有深度学习库使用经验、想了解其底层实现原理的从业人员                               深度学习是目前人工智能的核心技术,本书从原理到实现,介绍了深度学习的基本理论、网络结构、优化技术和实际应用,帮助读者用Python的NumPy库从底层而不是借助现有的深度学习库,从0开始构建属于自己的深度学习库。
内容提要
本书深入浅出地介绍了深度学习的基本原理和实现过程,带领读者用Python的NumPy库从底层而不是借助现有的深度学习库,从0开始构建属于自己的深度学习库。本书在介绍基本的Python编程、微积分、概率、统计知识的基础上,按照深度学习的发展脉络介绍了回归模型、神经网络、卷积神经网络、循环神经网络、生成对抗网络等深度学习的核心知识,在深入浅出地剖析原理的同时,给出了详细的代码实现过程。本书既适合没有任何深度学习基础的初学者阅读,也适合具有深度学习库使用经验、想了解其底层实现原理的从业人员参考。同时,本书特别适合作为高等院校的深度学习教材。 
目录
章 编程和数学基础 11.1 Python快速入门 11.1.1 快速安装Pytho11.1.2 Python基础 21.1.3 Python中的常见运算 51.1.4 Python控制语句 71.1.5 Python常用容器类型 101.1.6 Python常用函数 161.1.7 类和对象 221.1.8 Matplotlib入门 241.2 张量库NumPy 331.2.1 什么是张量 331.2.2 创建ndarray对象 371.2.3 ndarray数组的索引和切片 531.2.4 张量的计算 571.3 微积分 631.3.1 函数 641.3.2 四则运算和复合运算 661.3.3 极限和导数 691.3.4 导数的四则运算和链式法则 721.3.5 计算图、正向计算和反向传播求导 741.3.6 多变量函数的偏导数与梯度 751.3.7 向量值函数的导数与Jacobian矩阵 781.3.8 积分 831.4 概率基础 841.4.1 概率 841.4.2 条件概率、联合概率、全概率公式、贝叶斯公式 861.4.3 随机变量 881.4.4 离散型随机变量的概率分布 891.4.5 连续型随机变量的概率密度 911.4.6 随机变量的分布函数 931.4.7 期望、方差、协方差、协变矩阵 95第2章 梯度下降法 992.1 函数极值的必要条件 992.2 梯度下降法基础 1012.3 梯度下降法的参数优化策略 1082.3.1 Momentum法 1082.3.2 AdaGrad法 1102.3.3 AdaDelta法 1122.3.4 RMSprop法 1142.3.5 Adam法 1152.4 梯度验证 1172.4.1 比较数值梯度和分析梯度 1172.4.2 通用的数值梯度 1182.5 分离梯度下降法与参数优化策略 1192.5.1 参数优化器 1192.5.2 接受参数优化器的梯度下降法 120第3章 线性回归、逻辑回归和softmax回归 1223.1 线性回归 1223.1.1 餐车利润问题 1223.1.2 机器学习与人工智能 1233.1.3 什么是线性回归 1263.1.4 用正规方程法求解线性回归问题 1273.1.5 用梯度下降法求解线性回归问题 1293.1.6 调试学习率 1333.1.7 梯度验证 1353.1.8 预测 1353.1.9 多特征线性回归 1363.2 数据的规范化 1433.2.1 预测大坝出水量 1433.2.2 数据的规范化过程 1473.3 模型的评估 1493.3.1 欠拟合和过拟合 1493.3.2 验证集和测试集 1533.3.3 学习曲线 1553.3.4 偏差和方差 1603.4 正则化 1653.5 逻辑回归 1683.5.1 逻辑回归基础 1693.5.2 逻辑回归的NumPy实现 1733.5.3 实战:鸢尾花分类的NumPy实现 1783.6 softmax回归 1803.6.1 spiral数据集 1803.6.2 softmax函数 1813.6.3 softmax回归模型 1863.6.4 多分类交叉熵损失 1883.6.5 通过加权和计算交叉熵损失 1913.6.6 softmax回归的梯度计算 1913.6.7 softmax回归的梯度下降法的实现 1973.6.8 spiral数据集的softmax回归模型 1973.7 批梯度下降法和随机梯度下降法 1993.7.1 MNIST手写数字集 1993.7.2 用部分训练样本训练逻辑回归模型 2013.7.3 批梯度下降法 2023.7.4 随机梯度下降法 207第4章 神经网络 2094.1 神经网络概述 2094.1.1 感知机和神经元 2094.1.2 激活函数 2134.1.3 神经网络与深度学习 2164.1.4 多个样本的正向计算 2214.1.5 输出 2244.1.6 损失函数 2244.1.7 基于数值梯度的神经网络训练 2294.2 反向求导 2354.2.1 正向计算和反向求导 2354.2.2 计算图 2374.2.3 损失函数关于输出的梯度 2394.2.4 2层神经网络的反向求导 2424.2.5 2层神经网络的Python实现 2474.2.6 任意层神经网络的反向求导 2524.3 实现一个简单的深度学习框架 2564.3.1 神经网络的训练过程 2564.3.2 网络层的代码实现 2574.3.3 网络层的梯度检验 2604.3.4 神经网络的类 2614.3.5 神经网络的梯度检验 2634.3.6 基于深度学习框架的MNIST手写数字识别 2664.3.7 改进的通用神经网络框架:分离加权和与激活函数 2684.3.8 独立的参数优化器 2764.3.9 fashion-mnist的分类训练 2794.3.10 读写模型参数 282第5章 改进神经网络性能的基本技巧 2855.1 数据处理 2855.1.1 数据增强 2855.1.2 规范化 2895.1.3 特征工程 2895.2 参数调试 2965.2.1 权重初始化 2965.2.2 优化参数 3015.3 批规范化 3015.3.1 什么是批规范化 3015.3.2 批规范化的反向求导 3035.3.3 批规范化的代码实现 3045.4 正则化 3105.4.1 权重正则化 3105.4.2 Dropout 3125.4.3 早停法 3165.5 梯度爆炸和梯度消失 317第6章 卷积神经网络 3186.1 卷积入门 3196.1.1 什么是卷积 3196.1.2 一维卷积 3256.1.3 二维卷积 3266.1.4 多通道输入和多通道输出 3386.1.5 池化 3416.2 卷积神经网络概述 3446.2.1 全连接神经元和卷积神经元 3456.2.2 卷积层和卷积神经网络 3466.2.3 卷积层和池化层的反向求导及代码实现 3496.2.4 卷积神经网络的代码实现 3616.3 卷积的矩阵乘法 3646.3.1 一维卷积的矩阵乘法 3646.3.2 二维卷积的矩阵乘法 3656.3.3 一维卷积反向求导的矩阵乘法 3716.3.4 二维卷积反向求导的矩阵乘法 3736.4 基于坐标索引的快速卷积 3776.5 典型卷积神经网络结构 3936.5.1 LeNet-5 3936.5.2 AlexNet 3946.5.3 VGG 3956.5.4 残差网络 3966.5.5 Inception网络 3986.5.6 NiN 399第7章 循环神经网络 4037.1 序列问题和模型 4037.1.1 股票价格预测问题 4047.1.2 概率序列模型和语言模型 4057.1.3 自回归模型 4067.1.4 生成自回归数据 4067.1.5 时间窗方法 4087.1.6 时间窗采样 4097.1.7 时间窗方法的建模和训练 4097.1.8 长期预测和短期预测 4107.1.9 股票价格预测的代码实现 4127.1.10 k-gram语言模型 4157.2 循环神经网络基础 4167.2.1 无记忆功能的非循环神经网络 4177.2.2 具有记忆功能的循环神经网络 4187.3 穿过时间的反向传播 4217.4 单层循环神经网络的实现 4257.4.1 初始化模型参数 4257.4.2 正向计算 4257.4.3 损失函数 4277.4.4 反向求导 4277.4.5 梯度验证 4297.4.6 梯度下降训练 4327.4.7 序列数据的采样 4337.4.8 序列数据的循环神经网络训练和预测 4417.5 循环神经网络语言模型和文本的生成 4487.5.1 字符表 4487.5.2 字符序列样本的采样 4507.5.3 模型的训练和预测 4527.6 循环神经网络中的梯度爆炸和梯度消失 4557.7 长短期记忆网络 4567.7.1 LSTM的神经元 4577.7.2 LSTM的反向求导 4607.7.3 LSTM的代码实现 4617.7.4 LSTM的变种 4697.8 门控循环单元 4707.8.1 门控循环单元的工作原理 4707.8.2 门控循环单元的代码实现 4727.9 循环神经网络的类及其实现 4757.9.1 用类实现循环神经网络 4757.9.2 循环神经网络单元的类实现 4837.10 多层循环神经网络和双向循环神经网络 4917.10.1 多层循环神经网络 4917.10.2 多层循环神经网络的训练和预测 4977.10.3 双向循环神经网络 5007.11 Seq2Seq模型 5067.11.1 机器翻译概述 5077.11.2 Seq2Seq模型的实现 5087.11.3 字符级的Seq2Seq模型 5167.11.4 基于Word2Vec的Seq2Seq模型 5227.11.5 基于词嵌入层的Seq2Seq模型 5337.11.6 注意力机制 541第8章 生成模型 5528.1 生成模型概述 5528.2 自动编码器 5568.2.1 什么是自动编码器 5578.2.2 稀疏编码器 5598.2.3 自动编码器的代码实现 5608.3 变分自动编码器 5638.3.1 什么是变分自动编码器 5638.3.2 变分自动编码器的损失函数 5648.3.3 变分自动编码器的参数重采样 5658.3.4 变分自动编码器的反向求导 5658.3.5 变分自动编码器的代码实现 5668.4 生成对抗网络 5718.4.1 生成对抗网络的原理 5738.4.2 生成对抗网络训练过程的代码实现 5778.5 生成对抗网络建模实例 5798.5.1 一组实数的生成对抗网络建模 5798.5.2 二维坐标点的生成对抗网络建模 5858.5.3 MNIST手写数字集的生成对抗网络建模 5908.5.4 生成对抗网络的训练技巧 5948.6 生成对抗网络的损失函数及其概率解释 5948.6.1 生成对抗网络的损失函数的全局解 5948.6.2 Kullback-Leibler散度和Jensen-Shannon散度 5958.6.3 生成对抗网络的似然解释 5988.7 改进的损失函数——WassersteiGAN 5998.7.1 WassersteiGAN的原理 5998.7.2 WassersteiGAN的代码实现 6038.8 深度卷积对抗网络 6058.8.1 一维转置卷积 6068.8.2 二维转置卷积 6098.8.3 卷积对抗网络的代码实现 612参考文献 617
作者介绍
哈尔滨工业大学数学力学系应用数学本科、基础数学硕士,南京航空航天大学航空宇航制造工程专业博士。2008-2009年德州农工大学tamu访问学者,2016年休斯敦大学访问研究。从事过曲面造型、特征造型的算法研究和系统实现,开发过数控玻璃切割系统。在高校从事过高等数学、线性代数、概率统计、数据结构、C++编程语言、图形学、计算机网络等课程教学,目前主要研究方向:计算机图形学与计算机视觉、深度学习人工智能等。编著了《C++17从入门到精通》《Pytho3从入门到实战》等书。
序言

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP