• TensorFlow知识图谱实战
  • TensorFlow知识图谱实战
  • TensorFlow知识图谱实战
  • TensorFlow知识图谱实战
  • TensorFlow知识图谱实战
  • TensorFlow知识图谱实战
  • TensorFlow知识图谱实战
21年品牌 40万+商家 超1.5亿件商品

TensorFlow知识图谱实战

全新正版 极速发货

39.77 5.8折 69 全新

库存5件

广东广州
认证卖家担保交易快速发货售后保障

作者王晓华

出版社清华大学出版社

ISBN9787302591788

出版时间2021-11

装帧平装

开本其他

定价69元

货号1202502663

上书时间2024-05-31

徐小智的书店

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介
王晓华,计算机专业讲师,长期讲授面向对象程序设计、数据结构、Hadoop程序设计等研究生和本科生相关课程;主要研究方向为云计算、数据挖掘。曾主持和参与多项国家和省级科研课题,独立科研项目获省级成果认定,发表过多篇论文,拥有一项国家。著有《Spark MLlib机器学习实践》《TensorFlow深度学习应用实践》《OpenCV+TensorFlow深度学习与计算机视觉实战》《TensorFlow 2.0卷积神经网络实战》《TensorFlow+Keras自然语言处理实战》等图书。

目录
章  知识图谱的前世今生1
1.1  何谓自然语言处理1
1.1.1  自然语言处理是门技术1
1.1.2  传统的自然语言处理2
1.2  自然语言处理为什么难—以最简单的情感分析为例3
1.2.1  自然语言处理的难点3
1.2.2  自然语言处理小练习:酒店评论的情感分类5
1.3  知识图谱到底是什么8
1.3.1  知识图谱的应用9
1.3.2  知识图谱中的三元组10
1.4  搭建环境1:安装Python11
1.4.1  Anaconda的下载与安装12
1.4.2  PyCharm的下载与安装14
1.4.3  Python代码小练习:计算softmax函数17
1.5  搭建环境2:安装TensorFlow 2.X的GPU版本18
1.5.1  10/20/30系列显卡选择的GPU版本18
1.5.2  TensorFlow 2.4 GPU版本基础显卡推荐和前置软件安装19
1.5.3  TensorFlow小练习:Hello TensorFlow22
1.6  实战—知识图谱的展示22
1.6.1  步:数据的准备22
1.6.2  第二步:数据的处理23
1.6.3  第三步:知识图谱的展示24
1.6.4  第四步:更多的连线25
1.6.5  一个需要解决的小问题25
1.7  本章小结26
第2章  TensorFlow和Keras快速入门27
2.1  Keras让一切变简单27
2.1.1  深度学习,始于模型28
2.1.2  使用Keras API实现鸢尾花分类的例子(顺序模型)28
2.1.3  使用Keras函数式编程实现鸢尾花分类的例子(重点)31
2.1.4  使用保存的Keras模式对模型进行复用34
2.1.5  使用TensorFlow 标准化编译对iris模型进行拟合34
2.1.6  多输入单一输出TensorFlow 编译方法(选学)38
2.1.7  多输入多输出TensorFlow 编译方法(选学)42
2.2  全连接层详解43
2.2.1  全连接层的定义与实现43
2.2.2  使用TensorFlow 自带的API实现全连接层45
2.2.3  打印显示已设计的model结构和参数48
2.3  懒人的福音—Keras模型库49
2.3.1  ResNet50模型和参数的载入50
2.3.2  使用ResNet作为特征提取层建立模型52
2.4  本章小结54
第3章  深度学习的理论基础55
3.1  BP神经网络简介56
3.2  BP神经网络两个基础算法详解59
3.2.1  最小二乘法(LS算法)详解59
3.2.2  道士下山的故事—梯度下降算法61
3.2.3  最小二乘法的梯度下降算法及其Python实现64
3.3  反馈神经网络反向传播算法介绍70
3.3.1  深度学习基础70
3.3.2  链式求导法则71
3.3.3  反馈神经网络原理与公式推导72
3.3.4  反馈神经网络原理的激活函数78
3.3.5  反馈神经网络原理的Python实现79
3.4  本章小结83
第4章  卷积神经网络实战84
4.1  卷积运算基本概念84
4.1.1  卷积运算85
4.1.2  TensorFlow 中卷积函数实现详解86
4.1.3  池化运算88
4.1.4  softmax激活函数89
4.1.5  卷积神经网络原理90
4.2  卷积实战:MNIST手写体识别93
4.2.1  MNIST数据集93
4.2.2  MNIST数据集特征和标签介绍95
4.2.3  TensorFlow 2.X编程实战:MNIST数据集97
4.2.4  使用自定义的卷积层实现MNIST识别101
4.3  本章小结104
第5章  Datasets数据集和TensorBoard可视化105
5.1  TensorFlow Datasets简介105
5.1.1  Datasets 数据集的安装107
5.1.2  Datasets 数据集的使用107
5.2  Datasets 数据集的使用—FashionMNIST109
5.2.1  FashionMNIST数据集下载与展示110
5.2.2  模型的建立与训练111
5.3  使用Keras对FashionMNIST数据集进行处理113
5.3.1  获取数据集113
5.3.2  数据集的调整114
5.3.3  使用Python类函数建立模型114
5.3.4  Model的查看和参数打印115
5.3.5  模型的训练和评估117
5.4  使用TensorBoard可视化训练过程119
5.4.1  TensorBoard文件夹设置119
5.4.2  TensorBoard的显式调用(推荐使用Chrome或Edge浏览器)120
5.4.3  TensorBoard的使用122
5.5  本章小结126
第6章  ResNet实现神经网络的飞跃127
6.1  ResNet基础原理与程序设计基础127
6.1.1  ResNet诞生的背景127
6.1.2  模块工具的TensorFlow 实现—不要重复造轮子130
6.1.3  TensorFlow 不错模块layers用法简介131
6.2  ResNet实战:CIFAR100数据集分类138
6.2.1  CIFAR100数据集简介138
6.2.2  ResNet残差模块的实现141
6.2.3  ResNet网络的实现143
6.2.4  使用ResNet对CIFAR100数据集进行分类146
6.3  本章小结147
第7章  有趣的词嵌入——word embedding148
7.1  文本数据处理148
7.1.1  数据集介绍和数据清洗149
7.1.2  停用词的使用151
7.1.3  词向量训练模型word2vec使用介绍153
7.1.4  文本主题的提取:基于TF-IDF(选学)156
7.1.5  文本主题的提取:基于TextRank(选学)160
7.2  更多的word embedding方法—fastText和 预训练词向量163
7.2.1  fastText的原理与基础算法163
7.2.2  fastText训练以及与TensorFlow 2.X的协同使用164
7.2.3  使用其他预训练参数做TensorFlow词嵌入矩阵(中文)170
7.3  针对文本的卷积神经网络模型简介—字符卷积171
7.3.1  字符(非单词)文本的处理172
7.3.2  卷积神经网络文本分类模型的实现—conv1d(一维卷积)179
7.4  针对文本的卷积神经网络模型—词卷积180
7.4.1  单词的文本处理181
7.4.2  卷积神经网络文本分类模型的实现—conv2d(二维卷积)183
7.5  使用卷积对文本分类的补充内容186
7.5.1  汉字的文本处理186
7.5.2  其他的一些细节188
7.6  本章小结189
第8章  情感分类190
8.1  GRU与情感分类190
8.1.1  使用GRU的情感分类190
8.1.2  什么是GRU191
8.1.3  TensorFlow 中的GRU层详解193
8.1.4  单向不行就双向194
8.2  实战:情感分类195
8.2.1  使用TensorFlow 自带的模型做文本分类195
8.2.2  使用自定义的DPCNN做模型分类199
8.3  本章小结203
第9章  编码器—自然语言处理的归宿204
9.1  编码器的核心—注意力模型205
9.1.1  输入层—初始词向量层和位置编码器层205
9.1.2  自注意力层207
9.1.3  ticks和LayerNormalization212
9.1.4  多头自注意力213
9.2  编码器的实现216
9.2.1  前馈层的实现216
9.2.2  编码器的实现218
9.3  实战编码器:汉字拼音转化模型221
9.3.1  汉字拼音数据集处理222
9.3.2  汉字拼音转化模型的确定223
9.3.3  模型训练部分的编写226
9.3.4  推断函数的编写228
9.4  本章小结229
0章  BERT—站在巨人肩膀上的预训练模型230
10.1  预训练模型BERT230
10.1.1  BERT基本架构与应用231
10.1.2  BERT预训练任务与Fine-Tuning232
10.2  实战BERT:中文文本分类235
10.2.1  使用Hugging face获取BERT预训练模型235
10.2.2  BERT实战文本分类236
10.3  更多的预训练模型241
10.4  本章小结244
1章  知识图谱实战1:多标签文本分类245
11.1  多标签文本基本内容245
11.1.1  多标签分类不等于多分类245
11.1.2  多标签分类的激活函数—sigmoid246
11.2  多标签文本实战247
11.2.1  步:数据的获取与处理247
11.2.2  第二步:选择特征抽取模型251
11.2.3  第三步:训练模型的建立252
11.2.4  第四步:多标签文本分类的训练与预测253
11.3  本章小结256
2章  知识图谱实战2:命名实体识别257
12.1  命名实体识别的基本内容257
12.1.1  什么是命名实体识别257
12.1.2  深度学习在命名实体识别中的应用258
12.1.3  命名实体识别CRF层简介258
12.1.4  命名实体识别一般的模型架构详解259
12.2  方法一:BERT命名实体识别实战260
12.2.1  步:数据的获取与处理260
12.2.2  第二步:BERT模型设计262
12.2.3  第三步:完整的BERT模型训练263
12.2.4  第四步:使用BERT命名实体识别模型进行预测263
12.3  方法二:BiLSTM-CRF命名实体识别实战265
12.3.1  步:数据的获取与处理265
12.3.2  第二步:BiLSTM-CRF模型设计265
12.3.3  第三步:BiLSTM-CRF模型的训练266
12.3.4  第四步:使用BiLSTM的预测268
12.4  本章小结269
3章  知识图谱实战3: 基于联合抽取的知识图谱模型270
13.1  基于联合抽取的知识图谱模型实战270
13.1.1  什么是联合抽取270
13.1.2  步:数据的处理272
13.1.3  第二步:模型的设计274
13.1.4  第三步:联合抽取模型的训练274
13.2  知识图谱模型提升276
13.2.1  更换预训练模型进行提升276
13.2.2  更换损失函数进行提升276
13.2.3  使用Mixture-of-Experts修正联合抽取模型279
13.3  本章小结281

内容摘要
大数据时代的到来,为人工智能的飞速发展带来靠前的数据红利。在大数据的“喂养”下,大量知识不断涌现,如何有效地发掘这些知识呢?知识图谱横空出世。本书是一本讲解如何使用TensorFlow 2构建知识图谱的入门教程,引导读者掌握基于深度学习的知识图谱构建概念、理论和方法。 
本书分为13章:章从搭建环境开始,包含TensorFlow CPU 版本和GPU版本的安装,并通过一个知识图谱的例子引导读者开始学习;第2~4章介绍TensorFlow API的使用;第5章是Dataset API,学习使用原生API处理数据的方法;第6~8章是实战准备部分,介绍ResNet模型、词嵌入(word embedding)模型、情感分类;第9 ~10章在“注意力模型”基础上搭建了“编码器模型”;1~13章搭建了知识图谱联合抽取模型,利用本书所学知识实战知识图谱的搭建过程和性能提升方案。
本书内容详尽、示例丰富,适合作为知识图谱和深度学习读者的参考书,同时也适合开设人工智能专业的大中专院校师生阅读,还可作为高等院校计算机及相关专业教材使用。

主编推荐
本书介绍TensorFlow构建知识图谱的核心技术,帮助读者掌握使用深度学习构建知识图谱的方法,以及使用神经网络的技术要点和基于深度学习的应用程序编写技巧。

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP