• 深度学习与TensorFlow实践
图书条目标准图
21年品牌 40万+商家 超1.5亿件商品

深度学习与TensorFlow实践

25.78 3.3折 79 九品

仅1件

北京昌平
认证卖家担保交易快速发货售后保障

作者张玉宏

出版社电子工业出版社

出版时间2021-01

版次1

装帧其他

货号A11

上书时间2024-11-02

旧书香书城

十年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:九品
图书标准信息
  • 作者 张玉宏
  • 出版社 电子工业出版社
  • 出版时间 2021-01
  • 版次 1
  • ISBN 9787121401992
  • 定价 79.00元
  • 装帧 其他
  • 开本 16开
  • 纸张 胶版纸
  • 页数 312页
  • 字数 410千字
【内容简介】
深度学习是人工智能的前沿技术。本书深入浅出地介绍了深度学习的相关理论和TensorFlow实践,全书共8章。第1章给出了深度学习的基本概况。第2章详细介绍了神经网络相关知识,内容包括M-P神经元模型、感知机、多层神经网络。第3章介绍了被广泛认可的深度学习框架TensorFlow 2的安装流程与新特性。第4章详细介绍了TensorFlow 2的相关语法。第5章介绍了BP算法和常见的优化方法。第6章介绍了Keras模块的使用。第7章和第8章详细讲解了卷积神经网络和循环神经网络,并给出了相关的实战项目。 本书结构完整、行文流畅,是一本零基础入门、通俗易懂、图文并茂、理论结合实战的深度学习书籍。对于计算机、人工智能及相关专业的本科生和研究生,这是一本适合入门与系统学习的教材;对于从事深度学习产品研发的工程技术人员,本书也有一定的参考价值。
【作者简介】
张玉宏,2012年博士毕业于电子科技大学,大数据分析师(高级),2009年~2011年美国西北大学访问学者,2019年~至今,美国IUPUI高级访问学者,现执教于河南工业大学,主要研究方向为大数据、机器学习等,发表学术论文30余篇,阿里云栖社区专栏科技作家,先后出版《深度学习之美》《品味大数据》等科技畅销书6部,参编英文学术专著2部。
【目录】
目 录 

第1章 深度学习导论 1 

1.1 从人工智能到深度学习 2 

1.1.1 从感知机到深度学习 2 

1.1.2 深度学习的巨大影响 6 

1.2 从学习到机器学习 7 

1.2.1 什么是学习 7 

1.2.2 什么是机器学习 8 

1.2.3 机器学习的4个象限 9 

1.3 深度学习的内涵 10 

1.3.1 什么是深度学习 10 

1.3.2 生活中的深度学习 12 

1.3.3 有没有浅度学习 13 

1.4 本章小结 14 

1.5 思考与习题 14 

参考资料 14 

第2章 神经网络学习 16 

2.1 人工神经网络的定义 17 

2.2 神经网络的原子单元——感知机 18 

2.2.1 感知机的形式化描述 18 

2.2.2 感知机名称的由来 19 

2.2.3 感性认识感知机 20 

2.2.4 感知机是如何学习的 22 

2.2.5 感知机训练法则 24 

2.2.6 感知机中的激活函数 26 

2.2.7 感知机的几何意义 26 

2.2.8 实战:基于Python的感知机实现 27 

2.2.9 感知机的表征能力 31 

2.3 多层前馈网络 32 

2.3.1 多层网络解决“异或”问题 32 

2.3.2 多层前馈神经网络 34 

2.3.3 机器学习本质与通用近似定理 35 

2.3.4 神经网络结构的设计 37 

2.4 神经网络中的损失函数 38 

2.5 常用的激活函数 40 

2.5.1 Sigmoid函数 40 

2.5.2 Tanh函数 41 

2.5.3 ReLU函数 42 

2.6 实战:利用sklearn搭建多层神经网络 43 

2.6.1 sklearn简介 44 

2.6.2 sklearn的安装 44 

2.6.3 sklearn搭建多层神经网络实现红酒分类 45 

2.7 本章小结 57 

2.8 思考与习题 58 

参考资料 58 

第3章 初识TensorFlow 60 

3.1 TensorFlow概述 61 

3.2 TensorFlow特征 62 

3.3 深度学习框架比较 63 

3.3.1 Theano 63 

3.3.2 Keras 64 

3.3.3 Caffe 65 

3.3.4 PyTorch 66 

3.4 利用Anaconda安装TensorFlow 67 

3.4.1 Anaconda的下载与安装 67 

3.4.2 验证Python是否安装成功 70 

3.4.3 利用conda安装TensorFlow 71 

3.5 运行“Hello World!”版的TensorFlow程序 72 

3.5.1 利用TensorFlow 2 编写的第二个程序 74 

3.5.2 TensorFlow 2 的新特性 75 

3.6 本章小结 79 

3.7 思考与提高 79 

参考资料 79 

第4章 TensorFlow 基础语法 80 

4.1 TensorFlow的张量思维 81 

4.1.1 张量的阶 81 

4.1.2 张量的尺寸 83 

4.2 TensorFlow中的数据类型 86 

4.2.1 Python基本数据类型与TensorFlow的关系 86 

4.2.2 数值类型 87 

4.2.3 字符串类型 89 

4.2.4 布尔类型 91 

4.2.5 张量类型转换 92 

4.2.6 TensorFlow中的张量与NumPy数组 93 

4.3 TensorFlow中的常量与变量 97 

4.3.1 constant常量 97 

4.3.2 Variable变量 98 

4.4 常用张量生成方法 100 

4.4.1 生成全0的张量 100 

4.4.2 生成全1的张量 102 

4.4.3 生成全为给定值的张量 103 

4.4.4 生成已知分布的随机数张量 103 

4.4.5 创建特定张量序列 104 

4.5 张量的索引和切片 105 

4.5.1 索引 105 

4.5.2 通过切片访问 107 

4.6 张量的维度伸缩与交换 111 

4.6.1 张量中的轴方向 111 

4.6.2 张量维度的增加与删除 111 

4.7 张量的合并、分割与复制 112 

4.7.1 张量合并 113 

4.7.2 张量分割 115 

4.8 TensorFlow中的计算 118 

4.8.1 按元素计算 118 

4.8.2 张量的按轴计算 119 

4.9 张量的广播机制 122 

4.9.1 广播的定义 122 

4.9.2 广播的操作与适用规则 122 

4.10 张量在神经网络中的典型应用 124 

4.10.1 标量 124 

4.10.2 向量 126 

4.10.3 矩阵 126 

4.10.4 三维张量 129 

4.10.5 四维张量 130 

4.10.6 五维张量 130 

4.11 本章小结 131 

4.12 思考与练习 132 

参考资料 132 

第5章 BP算法与优化方法 133 

5.1 为何需要优化函数 134 

5.1.1 优化的意义 134 

5.1.2 优化函数的流程 134 

5.2 基于梯度的优化算法 136 

5.2.1 什么是梯度 136 

5.2.2 梯度的代码实现 138 

5.2.3 梯度递减 142 

5.2.4 批量梯度递减法 145 

5.2.5 随机梯度递减法 146 

5.2.6 小批量梯度递减法 148 

5.2.7 实战:基于梯度递减的线性回归算法 148 

5.2.8 基于梯度递减优化算法的挑战 151 

5.3 BP算法 152 

5.3.1 BP算法的发展历程 152 

5.3.2 正向传播信息 153 

5.3.3 求导中的链式法则 156 

5.3.4 误差反向传播 158 

5.3.5 实战:利用BP算法解决异或问题 160 

5.4 TensorFlow中的其他优化算法 163 

5.5 本章小结 166 

5.6 思考与习题 166 

参考资料 167 

第6章 Keras模块的使用 168 

6.1 Keras与tf.keras模块 169 

6.2 数据的加载 170 

6.2.1 TensorFlow的经典数据集 170 

6.2.2 Dataset对象 171 

6.3 Dataset的变换 173 

6.3.1 随机打散 173 

6.3.2 设置批大小 174 

6.3.3 数据映射 174 

6.3.4 循环训练 175 

6.4 实战:基于梯度递减的手写数字识别MNIST 176 

6.4.1 MNIST数据集简介 176 

6.4.2 MNIST数据的获取 178 

6.4.3 手写识别任务的分类模型 180 

6.4.4 Softmax回归模型 182 

6.4.5 手写数字识别MNIST中的Softmax回归模型 184 

6.4.6 TensorFlow中搭建模型的三种方式 185 

6.4.7 常用的序贯模型 186 

6.4.8 利用tf.keras进行模型搭建 188 

6.4.9 利用梯度递减算法构建模型 191 

6.4.10 损失函数的交叉熵模型 193 

6.4.11 tf.keras中的模型编译 196 

6.4.12 模型的训练与预测 198 

6.4.13 训练模型的保存与读取 201 

6.5 本章小结 205 

6.6 思考与练习 206 

参考资料 206 

第7章 卷积神经网络 207 

7.1 概述 208 

7.1.1 前馈神经网络的问题所在 208 

7.1.2 卷积神经网络的生物学启示 209 

7.1.3 卷积神经网络的发展历程 210 

7.1.4 深度学习的“端到端”范式 212 

7.2 卷积神经网络的概念 213 

7.2.1 卷积的数学定义 213 

7.2.2 生活中的卷积 215 

7.3 图像处理中的卷积 215 

7.3.1 计算机“视界”中的图像 215 

7.3.2 卷积运算 216 

7.3.3 卷积在图像处理中的应用 219 

7.4 卷积神经网络的结构 221 

7.5 卷积层要义 222 

7.5.1 卷积层的局部连接 222 

7.5.2 卷积核深度 223 

7.5.3 步幅 223 

7.5.4 填充 224 

7.5.5 权值共享 226 

7.6 激活层 227 

7.7 池化层 228 

7.8 全连接层 230 

7.9 防止过拟合的Dropout机制 231 

7.10 经典的卷积神经网络结构 232 

7.10.1 LeNet-5 233 

7.10.2 AlexNet 233 

7.10.3 VGGNet 235 

7.11 实战:基于卷积神经网络的手写数字识别 236 

7.11.1 数据读取 237 

7.11.2 搭建模型 238 

7.11.3 模型训练 240 

7.11.4 可视化展现TensorBoard 242 

7.11.5 模型预测 246 

7.12 本章小结 248 

7.13 思考与练习 248 

参考资料 249 

第8章 循环神经网络与LSTM 250 

8.1 标准神经网络的缺点 251 

8.2 循序神经网络的发展历程 252 

8.2.1 Hopfield网络 252 

8.2.2 Jordan循环神经网络 252 

8.2.3 Elman循环神经网络 253 

8.2.4 RNN的应用领域 254 

8.3 RNN的理论基础 254 

8.3.1 RNN的形式化定义 255 

8.3.2 循环神经网络的生物学机理 256 

8.4 常见的RNN拓扑结构 257 

8.4.1 one-to-one 257 

8.4.2 one-to-many 258 

8.4.3 many-to-one 258 

8.4.4 many-to-many 258 

8.5 RNN的训练 259 

8.5.1 单向RNN建模 259 

8.5.2 双向RNN建模 261 

8.5.3 确定优化目标函数 262 

8.5.4 参数求解与BPTT 262 

8.6 LSTM的来历 263 

8.7 拆解LSTM 264 

8.7.1 改造的神经元 264 

8.7.2 遗忘门 266 

8.7.3 输入门 267 

8.7.4 调节门 267 

8.7.5 输出门 268 

8.7.6 LSTM的部件功能 269 

8.7.7 GRU优化 270 

8.8 LSTM的训练流程 270 

8.9 自然语言处理的假说 271 

8.10 词向量表示方法 273 

8.10.1 独热编码表示 273 

8.10.2 分布式表示 275 

8.10.3 词嵌入表示 277 

8.11 基于RNN的语言模型 279 

8.12 实战:基于RNN 的文本情感分类问题 281 

8.12.1 数据读取 281 

8.12.2 感性认知数据 282 

8.12.3 数据预处理 284 

8.12.4 搭建简易RNN 286 

8.12.5 基于LSTM的优化 290 

8.12.6 基于GRU的优化 291 

8.13 本章小结 293 

8.14 思考与练习 294 

参考资料 294
点击展开 点击收起

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP