• TensorFlow 2 0深度学习从零开始学
21年品牌 40万+商家 超1.5亿件商品

TensorFlow 2 0深度学习从零开始学

12.71 1.8折 69 九五品

仅1件

北京通州
认证卖家担保交易快速发货售后保障

作者王晓华

出版社清华大学出版社

ISBN9787302552734

出版时间2020-06

版次1

装帧平装

开本16开

纸张胶版纸

定价69元

上书时间2024-07-13

灵感飞驰

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:九五品
商品描述
基本信息
书名:TensorFlow 2 0深度学习从零开始学
定价:69.00元
作者:王晓华
出版社:清华大学出版社
出版日期:2020-06-01
ISBN:9787302552734
字数:
页码:
版次:
装帧:平装
开本:16开
商品重量:
编辑推荐
1. 介绍全面,讲解详尽本书全面地讲解TensorFlow 2.0的新框架设计思想和模型的编写,详细介绍TensorFlow 2.0的安装、使用以及TensorFlow 2.0官方所推荐的Keras编程方法与技巧等。2. 作者经验丰富,代码编写细腻本书的代码编写由低到高,针对各个环节都有详尽的说明,使得读者能够充分了解和掌握代码各个模块的编写方法和技巧,是一本非常好的TensorFlow 2.0学习教程。作者是长期奋战在科研和工业界的一线算法设计和程序编写人员,实战经验丰富,对代码中可能会出现的各种问题和“坑”有丰富的处理经验,能够使得读者少走很多弯路。3. 理论扎实,深入浅出在代码设计的基础上,本书还深入浅出地介绍深度学习需要掌握的一些基本理论知识,通过大量的公式与图示结合的方式对理论进行介绍。4. 提供完善的技术支持和售后服务本书提供了专门的技术支持邮箱:booksaga@163.com。读者在阅读本书过程中有任何疑问都可以通过该邮箱获得帮助。
内容提要
随着人工智能的发展以及TensorFlow在人工智能方面的火热应用,越来越多的大学逐步开设深度学习和人工智能课程。本书既是一本为读者量身定制的TensorFlow 2.0入门教材,也是针对需要学习TensorFlow 2.0新内容的读者提供的基础与进阶知识的深入型教材。 本书分为10章,主要内容包括TensorFlow 2.0开发环境、TensorFlow 2.0新特性、TensorFlow与Keras的使用、TensorFlow 2.0语法基础、卷积层详解与MNIST实战、Dataset使用详解、TensorFlow Datasets和TensorBoard详解、ResNet及其实战、注意力机制、卷积神经网络实战。 本书内容详尽、示例丰富,是广大对TensorFlow 2.0感兴趣的读者的参考书,同时也非常适合大中专院校师生学习阅读,还可作为高等院校计算机及相关专业的教材使用。
目录
目 录章 TensorFlow 2.0的安装 11.1 Python基本安装和用法 11.1.1 Anaconda的下载与安装 11.1.2 Python编译器PyCharm的安装 41.1.3 使用Python计算softmax函数 71.2 TensorFlow 2.0 GPU版本的安装 81.2.1 检测Anaconda中的TensorFlow版本 81.2.2 TensorFlow 2.0 GPU版本基础显卡推荐和前置软件安装 91.3 Hello TensorFlow 2.0 121.4 本章小结 13第2章 TensorFlow 2.0令人期待的变化 142.1 新的架构、新的运行、新的开始 142.1.1 API精简 152.1.2 Eager Execution 152.1.3 取消全局变量 152.1.4 使用函数而不是会话 152.1.5 弃用collection 162.2 配角转成主角:从TensorFlow Eager Execution转正谈起 162.2.1 Eager简介与调用 172.2.2 读取数据 182.3 使用TensorFlow 2.0模式进行线性回归的一个简单例子 202.3.1 模型的工具与数据的生成 202.3.2 模型的定义 202.3.3 损失函数的定义 212.3.4 梯度函数的更新计算 212.4 TensorFlow 2.0进阶—AutoGraph和tf.function 232.5 本章小结 26第3章 TensorFlow 和 Keras 273.1 模型!模型!模型!还是模型 273.2 使用Keras API实现鸢尾花分类的例子(顺序模式) 283.2.1 数据的准备 293.2.2 数据的处理 303.2.3 梯度更新函数的写法 313.2.4 使用Keras 函数式编程实现鸢尾花分类的例子(重点) 323.2.5 使用保存的Keras模式对模型进行复用 353.2.6 使用TensorFlow 2.0标准化编译对iris模型进行拟合 353.3 多输入单一输出TensorFlow 2.0 编译方法(选学) 403.3.1 数据的获取与处理 403.3.2 模型的建立 413.3.3 数据的组合 413.4 多输入多输出TensorFlow 2.0 编译方法(选学) 443.5 全连接层详解 463.5.1 全连接层的定义与实现 463.5.2 使用TensorFlow 2.0自带的API实现全连接层 473.5.3 打印显示TensorFlow 2.0设计的模型结构和参数 513.6 本章小结 53第4章 TensorFlow 2.0语法基础 544.1 BP神经网络简介 544.2 BP神经网络的两个基础算法 584.2.1 二乘法(LS算法) 584.2.2 道士下山的故事—梯度下降算法 614.3 反馈神经网络反向传播算法 634.3.1 深度学习基础 634.3.2 链式求导法则 644.3.3 反馈神经网络原理与公式推导 664.3.4 反馈神经网络原理的激活函数 724.3.5 反馈神经网络原理的Python实现 734.4 本章小结 78第5章 卷积层与MNIST实战 795.1 卷积运算 795.1.1 卷积运算的基本概念 805.1.2 TensorFlow 2.0中卷积函数的实现 815.1.3 池化运算 835.1.4 softmax激活函数 845.1.5 卷积神经网络原理 865.2 TensorFlow 2.0编程实战:MNIST手写体识别 895.2.1 MNIST数据集 895.2.2 MNIST数据集特征和标注 915.2.3 TensorFlow 2.0编程实战:MNIST数据集 935.2.4 使用自定义的卷积层实现MNIST识别 975.3 本章小结 101第6章 TensorFlow 2.0 Dataset 使用详解 1026.1 Dataset API基本结构和内容 1026.1.1 Dataset API数据种类 1036.1.2 Dataset API基础使用 1046.2 Dataset API高级用法 1056.2.1 Dataset API数据转换方法 1076.2.2 读取图片数据集的例子 1106.3 使用TFRecord API创建和使用数据集 1116.3.1 TFRecord的基本概念 1126.3.2 TFRecord的创建 1136.3.3 TFRecord的读取 1186.4 TFRecord实战:带有处理模型的完整例子 1246.4.1 创建数据集 1256.4.2 创建解析函数 1256.4.3 创建数据模型 1266.4.4 创建读取函数 1266.5 本章小结 128第7章 TensorFlow Datasets和TensorBoard详解 1297.1 TensorFlow Datasets简介 1297.1.1 Datasets 数据集的安装 1317.1.2 Datasets 数据集的使用 1317.2 Datasets数据集的使用—FashionMNIST 1337.2.1 FashionMNIST数据集下载与显示 1347.2.2 模型的建立与训练 1367.3 使用Keras对FashionMNIST数据集进行处理 1387.3.1 获取数据集 1387.3.2 数据集的调整 1397.3.3 使用Python类函数建立模型 1397.3.4 模型的查看和参数的打印 1417.3.5 模型的训练和评估 1427.4 使用TensorBoard可视化训练过程 1447.4.1 TensorBoard的文件夹设置 1457.4.2 显式地调用TensorBoard 1467.4.3 使用TensorBoard 1487.5 本章小结 152第8章 从冠军开始:ResNet 1538.1 ResNet基础原理与程序设计基础 1538.1.1 ResNet诞生的背景 1548.1.2 模块工具的TensorFlow实现—不要重复发明轮子 1578.1.3 TensorFlow高级模块layers的用法 1578.2 ResNet实战:CIFAR-100数据集分类 1658.2.1 CIFAR-100数据集 1658.2.2 ResNet残差模块的实现 1688.2.3 ResNet网络的实现 1708.2.4 使用ResNet对CIFAR-100数据集进行分类 1738.3 ResNet的兄弟—ResNeXt 1758.3.1 ResNeXt诞生的背景 1758.3.2 ResNeXt残差模块的实现 1778.3.3 ResNeXt网络的实现 1788.3.4 ResNeXt和ResNet的比较 1808.4 本章小结 180第9章 注意力机制 1819.1 何为“注意力” 1819.2 注意力机制的两种常见形式 1829.2.1 Hard Attention(硬性注意力) 1839.2.2 Soft Attention(软性注意力) 1839.3 注意力机制的两种实现形式 1839.3.1 Spatial Attention(空间注意力) 1849.3.2 Channel Attention(通道注意力) 1859.4 注意力机制的两种经典模型 1869.4.1 最后的冠军—SENet 1869.4.2 结合Spatial和Channel的CBAM模型 1899.4.3 注意力的前沿研究—基于细粒度的图像注意力机制 1949.5 本章小结 1960章 卷积神经网络实战:识文断字也可以 19710.1 文本数据处理 19810.1.1 数据集介绍和数据清洗 19810.1.2 停用词的使用 20110.1.3 词向量训练模型word2vec的使用 20310.1.4 文本主题的提取:基于TF-IDF(选学) 20710.1.5 文本主题的提取:基于TextRank(选学) 21110.2 针对文本的卷积神经网络模型—字符卷积 21410.2.1 字符(非单词)文本的处理 21410.2.2 卷积神经网络文本分类模型的实现—Conv1D(一维卷积) 22210.3 针对文本的卷积神经网络模型—词卷积 22410.3.1 单词的文本处理 22410.3.2 卷积神经网络文本分类模型的实现—Conv2D(二维卷积) 22710.4 使用卷积对文本分类的补充内容 23010.4.1 汉字的文本处理 23010.4.2 其他的细节 23310.5 本章小结 233
作者介绍
王晓华,计算机专业讲师,长期讲授面向对象程序设计、数据结构、Hadoop程序设计等研究生和本科生相关课程;主研方向为云计算、数据挖掘;曾主持和参与多项国家和省级科研课题,独立科研项目获省级成果认定,发表过多篇论文,拥有一项专利;著有《Spark MLlib机器学习实践》《TensorFlow深度学习应用实践》《OpenCV TensorFlow深度学习与计算机视觉实战》等图书。
序言

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP