¥ 17.63 2.2折 ¥ 79 九品
仅1件
作者[德]塔努吉·贾因(Tanuj Jain) 著;[美]卡蒂克·雷迪·博卡(Karthiek、Reddy、Bokka、[印]舒班吉·霍拉(Shubhangi Hora)、赵鸣、曾小健、詹炜 译
出版社机械工业出版社
出版时间2020-05
版次1
装帧平装
货号A13
上书时间2024-12-12
将深度学习方法应用于各种自然语言处理任务,可以让你的算法在速度和准确性方面提升到一个全新的水平。本书首先介绍自然语言处理领域的基本构件,接着介绍使用最先进的神经网络模型可以解决的问题。深入研究各种神经网络架构及其特定的应用领域将有助于你理解如何选择最佳模型来满足你的需求。随着学习的深入,你将学到卷积神经网络、循环神经网络、递归神经网络以及长短期记忆网络。在后面的章节中,你将能够使用自然语言处理技术(如注意力机制模型和集束搜索)开发应用程序。
学完本书,你不仅能具备自然语言处理的基础知识,还能选择适合的文本预处理和神经网络模型来解决一些自然语言处理的问题。
本书能帮助你:
了解深度学习问题的各种预处理技术。
用word2vec和GloVe构建文本的矢量表示。
使用Apache OpenNLP创建命名实体识别器和词性标注器。
在Keras中构建机器翻译模型。
用LSTM开发文本生成应用程序。
使用注意力模型构建触发词检测应用程序。
卡蒂克·雷迪·博卡(Karthiek Reddy Bokka)
语音和音频机器学习工程师,毕业于南加州大学,目前在波特兰的 Bi-amp Systems公司工作。他的兴趣包括深度学习、数字信号和音频处理、自然语言处理以及计算机视觉。他拥有设计、构建和部署人工智能应用程序的经验,这些应用程序可以用各种形式的实际数据(包括图像、语音、音乐、非结构化原始数据等)来解决现实世界中的问题。
舒班吉·霍拉(Shubhangi Hora)
Python开发者、人工智能爱好者和作家。她有计算机科学和心理学背景,对与心理健康相关的人工智能特别感兴趣。她住在印度浦那,热衷于通过机器学习和深度学习来推进自然语言处理。除此之外,她还喜欢表演艺术,是一名训练有素的音乐家。
塔努吉·贾因(Tanuj Jain)
在德国公司工作的数据科学家。他一直在开发深度学习模型,并将其投入生产以商用。他对自然语言处理特别感兴趣,并将自己的专业知识应用于分类和情感评级任务。他拥有电气工程硕士学位,主要研究统计模式识别。
莫尼卡·瓦姆布吉(Monicah Wambugu)
金融技术公司的首席数据科学家,该公司通过利用数据、机器学习和分析来提供小额贷款,以执行替代信用评分。她是加州大学伯克利分校信息管理与系统硕士研究生。Monicah对如何利用数据科学和机器学习来设计产品和应用程序,以满足目标受众的行为和社会经济需求特别感兴趣。
译者序
前言
第1章 自然语言处理 1
1.1 本章概览 1
1.2 自然语言处理的基础知识 1
1.3 自然语言处理的能力 3
1.4 自然语言处理中的应用 4
1.4.1 文本预处理 5
1.4.2 文本预处理技术 6
1.5 词嵌入 13
1.6 本章小结 22
第2章 自然语言处理的应用 23
2.1 本章概览 23
2.2 词性标注 24
2.2.1 词性 24
2.2.2 词性标注器 25
2.3 词性标注的应用 27
2.4 分块 33
2.5 加缝 35
2.6 命名实体识别 37
2.6.1 命名实体 37
2.6.2 命名实体识别器 38
2.6.3 命名实体识别的应用 38
2.6.4 命名实体识别器类型 39
2.7 本章小结 43
第3章 神经网络 44
3.1 本章概览 44
3.1.1 深度学习简介 44
3.1.2 机器学习与深度学习的比较 45
3.2 神经网络 46
3.3 训练神经网络 50
3.3.1 计算权重 51
3.3.2 损失函数 52
3.3.3 梯度下降算法 53
3.3.4 反向传播 56
3.4 神经网络的设计及其应用 57
3.4.1 有监督神经网络 57
3.4.2 无监督神经网络 57
3.5 部署模型即服务的基础 60
3.6 本章小结 62
第4章 卷积神经网络 63
4.1 本章概览 63
4.2 理解CNN的架构 65
4.2.1 特征提取 66
4.2.2 随机失活 68
4.2.3 卷积神经网络的分类 69
4.3 训练CNN 71
4.4 CNN的应用领域 77
4.5 本章小结 80
第5章 循环神经网络 81
5.1 本章概览 81
5.2 神经网络的早期版本 82
5.3 RNN 84
5.3.1 RNN架构 87
5.3.2 BPTT 88
5.4 更新和梯度流 90
5.4.1 调整权重矩阵Wy 90
5.4.2 调整权重矩阵Ws 90
5.4.3 关于更新Wx 92
5.5 梯度 94
5.5.1 梯度爆炸 94
5.5.2 梯度消失 94
5.5.3 Keras实现RNN 95
5.5.4 有状态与无状态 99
5.6 本章小结 102
第6章 门控循环单元 103
6.1 本章概览 103
6.2 简单RNN的缺点 104
6.3 门控循环单元 106
6.3.1 门的类型 108
6.3.2 更新门 108
6.3.3 重置门 110
6.3.4 候选激活函数 111
6.3.5 GRU变体 113
6.4 基于GRU的情感分析 114
6.5 本章小结 123
第7章 长短期记忆网络 124
7.1 本章概览 124
7.1.1 LSTM 124
7.1.2 遗忘门 126
7.2 输入门和候选单元状态 128
7.3 输出门和当前激活 132
7.4 神经语言翻译 139
7.5 本章小结 150
第8章 自然语言处理前沿 151
8.1 本章概览 151
8.1.1 注意力机制 152
8.1.2 注意力机制模型 153
8.1.3 使用注意力机制的数据标准化 154
8.1.4 编码器 155
8.1.5 解码器 155
8.1.6 注意力机制 155
8.1.7 α的计算 156
8.2 其他架构和发展状况 167
8.2.1 transformer 168
8.2.2 BERT 168
8.2.3 Open AI GPT-2 168
8.3 本章小结 169
第9章 组织中的实际NLP项目工作流 170
9.1 本章概览 170
9.1.1 机器学习产品开发的一般工作流 170
9.1.2 演示工作流 171
9.1.3 研究工作流 171
9.1.4 面向生产的工作流 172
9.2 问题定义 173
9.3 数据采集 173
9.4 谷歌Colab 174
9.5 Flask 180
9.6 部署 182
9.6.1 对Flask网络应用程序进行更改 183
9.6.2 使用Docker将Flask网络应用程序包装到容器中 183
9.6.3 将容器托管在亚马逊网络服务EC2实例上 185
9.6.4 改进 190
9.7 本章小结 190
附录 191
— 没有更多了 —
以下为对购买帮助不大的评价