TensorFlow自然语言处理
全新正版现货
¥
99.9
¥
99
全新
仅1件
作者 图珊
出版社 机械工业出版社
ISBN 9787111629146
出版时间 2019-12
装帧 平装
开本 16开
纸张 胶版纸
定价 99元
货号 27897686
上书时间 2024-07-12
商品详情
品相描述:全新
正版全新
商品描述
【编辑推荐 】: 深度学习应用所使用的大部分数据是由自然语言处理(NLP)提供的,而TensorFlow是目前比较重要的深度学习框架。面对当今巨量数据流中众多的非结构化数据,本书详细讲解如何将TensorFlow与NLP二者结合以提供有效的工具,以及如何将这些工具应用于具体的NLP任务。 本书shou先介绍NLP和TensorFlow的基础知识,之后讲解如何使用Word2vec及其高扩展,以便通过创建词嵌入将词序列转换为深度学习算法可用的向量。本书还介绍如何通过卷积神经网络(CNN)和递归神经网络(RNN)等经典深度学习算法执行句子分类和语言生成等重要的NLP任务。你将学习如何在NLP任务中应用高性能的RNN模型(比如长期短期记忆单元),还将认识神经机器翻译,并实现一个神经机器翻译器。 通过阅读本书,你将学到: NLP的核心概念和各种自然语言处理方法 使用TensorFlow函数创建神经网络以完成NLP任务 将海量数据处理成可用于深度学习应用的单词表示 使用CNN和RNN执行句子分类和语言生成 使用*先进的RNN(如长期短期记忆)执行复杂的文本生成任务 从头开始编写一个真正的神经机器翻译器 未来的NLP趋势和创新 【内容简介 】: 本书shou先介绍NLP和TensorFlow基础知识,然后介绍如何使用Word2vec(包括高扩展)创建单词嵌入,将单词序列转换为可由深度学习算法访问的向量。关于经典深度学习算法的章节,如卷积神经网络(CNN)和递归神经网络(RNN),展示了句子分类和语言生成等重要的NLP任务。此外还介绍如何将高性能的RNN模型,如长短期记忆(long short memory, LSTM)单元应用于NLP任务,你还将探索神经机器翻译并实现一个神经机器翻译器。 【作者简介 】: 图珊·加内格达拉(Thushan Ganegedara)目前是澳大利亚悉尼大学第三年的博士生。他专注于机器学习,喜欢深度学习。他喜欢危险,在未经测试的数据上运行算法。他还是澳大利亚初创公司AssessThreat的shou席数据科学家。他在斯里兰卡莫拉图瓦大学获得了理学士学位。他经常撰写有关机器学习的技术文章和教程。此外,他还在日常生活中游泳来努力营造健康的生活方式。 【目录 】: 译者序 前言 关于作者 关于审阅者 第1章 自然语言处理简介 1 1.1 什么是自然语言处理 1 1.2 自然语言处理的任务 2 1.3 传统的自然语言处理方法 3 1.3.1 理解传统方法 4 1.3.2 传统方法的缺点 7 1.4 自然语言处理的深度学习方法? 8 1.4.1 深度学习的历史 8 1.4.2 深度学习和NLP的当前状况 9 1.4.3 理解一个简单的深层模型—全连接神经网络 10 1.5 本章之外的学习路线 12 1.6 技术工具简介 14 1.6.1 工具说明 15 1.6.2 安装Python和scikit-learn 15 1.6.3 安装Jupyter Notebook 15 1.6.4 安装TensorFlow 16 1.7 总结 17 第2章 理解TensorFlow 18 2.1 TensorFlow是什么 18 2.1.1 TensorFlow入门 19 2.1.2 TensorFlow客户端详细介绍 21 2.1.3 TensorFlow架构:当你执行客户端时发生了什么 21 2.1.4 Cafe Le TensorFlow:使用类比理解TensorFlow 23 2.2 输入、变量、输出和操作 24 2.2.1 在TensorFlow中定义输入 25 2.2.2 在TensorFlow中定义变量 30 2.2.3 定义TensorFlow输出 31 2.2.4 定义TensorFlow操作 31 2.3 使用作用域重用变量 40 2.4 实现我们的个神经网络 42 2.4.1 准备数据 43 2.4.2 定义TensorFLow图 43 2.4.3 运行神经网络 45 2.5 总结 46 第3章 Word2vec——学习词嵌入 48 3.1 单词的表示或含义是什么 49 3.2 学习单词表示的经典方法 49 3.2.1 WordNet—使用外部词汇知识库来学习单词表示 50 3.2.2 独热编码表示方式 53 3.2.3 TF-IDF方法 53 3.2.4 共现矩阵 54 3.3 Word2vec—基于神经网络学习单词表示 55 3.3.1 练习:queen = king – he she吗 56 3.3.2 为学习词嵌入定义损失函数 58 3.4 skip-gram算法 59 3.4.1 从原始文本到结构化的数据 59 3.4.2 使用神经网络学习词嵌入 60 3.4.3 使用TensorFlow实现skip-gram 67 3.5 连续词袋算法 69 3.6 总结 71 第4章 高Word2vec 72 4.1 原始skip-gram算法 72 4.1.1 实现原始skip-gram算法 73 4.1.2 比较原始skip-gram算法和改进的skip-gram算法 75 4.2 比较skip-gram算法和CBOW算法 75 4.2.1 性能比较 77 4.2.2 哪个更胜一筹:skip-gram还是CBOW 79 4.3 词嵌入算法的扩展 81 4.3.1 使用unigram分布进行负采样 81 4.3.2 实现基于unigram的负采样 81 4.3.3 降采样:从概率上忽视常用词 83 4.3.4 实现降采样 84 4.3.5 比较CBOW及其扩展算法 84 4.4 近的skip-gram和CBOW的扩展算法 85 4.4.1 skip-gram算法的限制 85 4.4.2 结构化skip-gram算法 85 4.4.3 损失函数 86 4.4.4 连续窗口模型 87 4.5 GloVe:全局向量表示 88 4.5.1 理解GloVe 88 4.5.2 实现GloVe 89 4.6 使用Word2vec进行文档分类 90 4.6.1 数据集 91 4.6.2 用词向量进行文档分类 91 4.6.3 实现:学习词嵌入 92 4.6.4 实现:词嵌入到文档嵌入 92 4.6.5 文本聚类以及用t-SNE可视化文档嵌入 93 4.6.6 查看一些特异点 94 4.6.7 实现:用K-means对文档进行分类/聚类 95 4.7 总结 96 第5章 用卷积神经网络进行句子分类 97 5.1 介绍卷积神经网络 97 5.1.1 CNN基础 97 5.1.2 卷积神经网络的力量 100 5.2 理解卷积神经网络 100 5.2.1 卷积操作 100 5.2.2 池化操作 103 5.2.3 全连接层 104 5.2.4 组合成完整的CNN 105 5.3 练习:在MNIST数据集上用CNN进行图片分类 105 5.3.1 关于数据 106 5.3.2 实现CNN 106 5.3.3 分析CNN产生的预测结果 108 5.4 用CNN进行句子分类 109 5.4.1 CNN结构 110 5.4.2 随时间池化 112 5.4.3 实现:用CNN进行句子分类 112 5.5 总结 115 第6章 递归神经网络 116 6.1 理解递归神经网络 116 6.1.1 前馈神经网络的问题 117 6.1.2 用递归神经网络进行建模 118 6.1.3 递归神经网络的技术描述 119 6.2 基于时间的反向传播 119 6.2.1 反向传播的工作原理 120 6.2.2 为什么RNN不能直接使用反向传播 120 6.2.3 基于时间的反向传播:训练RNN 121 6.2.4 截断的BPTT:更有效地训练RNN 121 6.2.5 BPTT的限制:梯度消失和梯度爆炸 122 6.3 RNN的应用 123 6.3.1 一对一RNN 123 6.3.2 一对多RNN 123 6.3.3 多对一RNN 124 6.3.4 多对多RNN 124 6.4 用RNN产生文本 125 6.4.1 定义超参数 125 6.4.2 将输入随时间展开用于截断的BPTT 125 6.4.3 定义验证数据集 126 6.4.4 定义权重和偏置 126 6.4.5 定义状态持续变量 127 6.4.6 用展开的输入计算隐藏状态和输出 127 6.4.7 计算损失 128 6.4.8 在新文本片段的开头重置状态 128 6.4.9 计算验证输出 128 6.4.10 计算梯度和优化 129 6.4.11 输出新生成的文本块 129 6.5 评估RNN的文本结果输出 130 6.6 困惑度:衡量文本结果的质量 131 6.7 有上下文特征的递归神经网络:更长记忆的RNN 132 6.7.1 RNN-CF的技术描述 132 6.7.2
— 没有更多了 —
本店暂时无法向该地区发货
正版全新
以下为对购买帮助不大的评价