• 自然语言处理:基于机器学习视角 9787111742234
21年品牌 40万+商家 超1.5亿件商品

自然语言处理:基于机器学习视角 9787111742234

全新正版 _可开发票_极速发货

96.51 6.9折 139 全新

库存19件

天津西青
认证卖家担保交易快速发货售后保障

作者张岳 滕志扬

出版社机械工业出版社

ISBN9787111742234

出版时间2024-03

装帧平装

开本16开

定价139元

货号1203236395

上书时间2024-05-12

果然是好书店

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
目录
目录
中文版序
译者序
前言
符号表
第一部分  基础知识
第1章  绪论  2
1.1  自然语言处理的概念  2
1.2  自然语言处理任务  3
1.2.1  基础任务  4
1.2.2  信息抽取任务  12
1.2.3  应用  16
1.2.4  小结  18
1.3  机器学习视角下的自然语言
处理任务  18
总结  19
注释  19
习题  19
参考文献  21
第2章  相对频率  35
2.1  概率建模  35
2.1.1  优选似然估计  35
2.1.2  词概率建模  36
2.1.3  模型与概率分布  37
2.2  n元语言模型  41
2.2.1  一元语言模型  41
2.2.2  二元语言模型  43
2.2.3  三元及高阶语言模型  46
2.2.4  生成式模型  48
2.3  朴素贝叶斯文本分类器  49
2.3.1  朴素贝叶斯文本分类  50
2.3.2  文本分类器的评估  52
2.3.3  边缘概率的计算  53
2.3.4  特征  53
总结  54
注释  54
习题  54
参考文献  56
第3章  特征向量  57
3.1  文本在向量空间中的表示  57
3.1.1  聚类  59
3.1.2  k均值聚类  61
3.1.3  分类  62
3.1.4  支持向量机  63
3.1.5  感知机  65
3.2  多分类  66
3.2.1  定义基于输出的特征  67
3.2.2  多分类支持向量机  68
3.2.3  多分类感知机  69
3.3  线性判别式模型  70
3.3.1  判别式模型及其特征  70
3.3.2  线性模型的点积形式  72
3.4  向量空间与模型训练  72
3.4.1  可分性与泛化性  72
3.4.2  处理非线性可分数据  73
总结  74
注释  74
习题  74
参考文献  76
第4章  判别式线性分类器   78
4.1  对数线性模型  78
4.1.1  二分类对数线性模型的训练  79
4.1.2  多分类对数线性模型的训练  83
4.1.3  利用对数线性模型进行分类  85
4.2  基于随机梯度下降法训练支持向量机  85
4.2.1  二分类支持向量机的训练  86
4.2.2  多分类支持向量机的训练  87
4.2.3  感知机训练的目标函数  88
4.3  广义线性模型  88
4.3.1  统一在线训练  89
4.3.2  损失函数  89
4.3.3  正则化  92
4.4  模型融合  92
4.4.1  模型性能比较  92
4.4.2  模型集成  93
4.4.3  半监督学习  95
总结  96
注释  96
习题  97
参考文献  99
第5章  信息论观点  101
5.1  优选熵原理  101
5.1.1  朴素优选熵模型  103
5.1.2  条件熵  104
5.1.3  优选熵模型与训练数据  105
5.2  KL散度与交叉熵  108
5.2.1  交叉熵和优选似然估计  109
5.2.2  模型困惑度  110
5.3  互信息  111
5.3.1  点互信息  112
5.3.2  基于点互信息的文本挖掘  113
5.3.3  基于点互信息的特征选取  115
5.3.4  词的点互信息与向量表示  115
总结  117
注释  117
习题  117
参考文献  120
第6章  隐变量  121
6.1  期望优选算法  121
6.1.1  k均值算法  123
6.1.2  期望优选算法介绍  125
6.2  基于期望优选算法的隐变量模型  127
6.2.1  无监督朴素贝叶斯模型  127
6.2.2  IBM模型1  130
6.2.3  概率潜在语义分析  136
6.2.4  生成模型的相对优势  138
6.3  期望优选算法的理论基础  138
6.3.1  期望优选与KL散度  139
6.3.2  基于数值优化的期
望优选算法推导  140
总结  141
注释  142
习题  142
参考文献  144
第二部分  结构研究
第7章  生成式序列标注任务  146
7.1  序列标注  146
7.2  隐马尔可夫模型  147
7.2.1  隐马尔可夫模型的训练  149
7.2.2  解码  149
7.3  计算边缘概率  153
7.3.1  前向算法  154
7.3.2  后向算法  154
7.3.3  前向-后向算法  156
7.3.4  二阶隐马尔可夫模型的前向-后向算法  156
7.4  基于期望优选算法的无监督隐马尔可夫模型训练  158
总结  164
注释  164
习题  165
参考文献  166
第8章  判别式序列标注任务  168
8.1  局部训练的判别式序列标注模型  168
8.2  标注偏置问题  171
8.3  条件随机场  172
8.3.1  全局特征向量  173
8.3.2  解码  174
8.3.3  边缘概率计算  175
8.3.4  训练  178
8.4  结构化感知机  181
8.5  结构化支持向量机  184
总结  186
注释  186
习题  186
参考文献  188
第9章  序列分割  189
9.1  基于序列标注的序列分割任务  189
9.1.1  面向分词的序列标注特征  190
9.1.2  面向句法组块分析的序列标注特征  192
9.1.3  面向命名实体识别的序列标注特征  192
9.1.4  序列分割输出的评价方式  193
9.2  面向序列分割的判别式模型  193
9.2.1  分词中的词级别特征  194
9.2.2  基于动态规划的准确搜索解码  195
9.2.3  半马尔可夫条件随机场  197
9.2.4  优选间隔模型  202
9.3  结构化感知机与柱搜索  203
9.3.1  放宽特征局部约束  204
9.3.2  柱搜索解码  205
总结  207
注释  207
习题  207
参考文献  208
第10章  树结构预测  210
10.1  生成式成分句法分析  210
10.1.1  概率上下文无关文法  212
10.1.2  CKY解码  213
10.1.3  成分句法解析器的性能评估  215
10.1.4  边缘概率的计算  215
10.2  成分句法分析的特征  218
10.2.1  词汇化概率上下文无关文法  218
10.2.2  判别式成分句法分析模型  221
10.2.3  面向成分句法分析的对数线性模型  222
10.2.4  面向成分句法分析的优选间隔模型  225
10.3  重排序  225
10.4  序列和树结构总结及展望  228
总结  228
注释  228
习题  229
参考文献  230
第11章  基于转移的结构预测模型  233
11.1  基于转移的结构化预测  233
11.1.1  贪心式局部模型  235
11.1.2  结构化全局模型  236
11.2  基于转移的成分句法分析  239
11.2.1  移进归约成分句法分析  239
11.2.2  特征模板  241
11.3  基于转移的依存句法分析  242
11.3.1  标准弧转移依存句法分析  243
11.3.2  依存句法解析器的评价方法  245
11.3.3  贪心弧转移依存句法分析  245
11.3.4  基于SWAP动作的非投影树解析  246
11.4  句法分析联合模型  247
11.4.1  分词、词性标注与依存句法分析联合模型  248
11.4.2  讨论  250
总结  251
注释  251
习题  251
参考文献  252
第12章  贝叶斯网络  254
12.1  通用概率模型  254
12.2  贝叶斯网络的训练  257
12.2.1  优选似然估计  258
12.2.2  优选后验估计  259
12.2.3  共轭先验  261
12.2.4  贝叶斯估计  263
12.2.5  贝叶斯一元语言模型  265
12.3  推理  266
12.3.1  准确推理  266
12.3.2  吉布斯采样  267
12.4  潜在狄利克雷分配  269
12.4.1  带有隐变量的训练过程  271
12.4.2  潜在狄利克雷分配模型的应用  274
12.4.3  主题评价  275
12.5  贝叶斯IBM模型1  276
总结  276
注释  277
习题  277
参考文献  278
第三部分  深度学习
第13章  神经网络  282
13.1  从单层网络到多层网络  282
13.1.1  面向文本分类任务的多层感知机  284
13.1.2  多层感知机的训练  287
13.2  构建不依赖人工特征的文本分类器  292
13.2.1  词嵌入  293
13.2.2  序列编码层  293
13.2.3  输出层  296
13.2.4  训练  297
13.3  神经网络的训练优化  298
13.3.1  Short-cut连接  298
13.3.2  层标准化  298
13.3.3  Dropout机制  299
13.3.4  神经网络随机梯度下降训练算法的优化  299
13.3.5  超参数搜索  301
总结  301
注释  301
习题  301
参考文献  303
第14章  表示学习  305
14.1  循环神经网络  305
14.1.1  朴素循环神经网络  306
14.1.2  循环神经网络的训练  307
14.1.3  长短期记忆网络与门控循环单元  309
14.1.4  堆叠式长短期记忆网络  311
14.2  注意力机制  312
14.2.1  键值对注意力  313
14.2.2  自注意力网络  315
14.3  树结构  315
14.3.1  Child-Sum树形长短期记忆网络  316
14.3.2  二叉树长短期记忆网络  318
14.3.3  特征对比  319
14.4  图结构  319
14.4.1  图循环神经网络  320
14.4.2  图卷积神经网络  321
14.4.3  图注意力神经网络  322
14.4.4  特征聚合  323
14.5  表示向量的分析  323
14.6  神经网络的训练  324
14.6.1  AdaGrad算法  324
14.6.2  RMSProp算法  325
14.6.3  AdaDelta算法  325
14.6.4  Adam算法  326
14.6.5  优化算法的选择  327
总结  327
注释  327
习题  328
参考文献  331
第15章  基于神经网络的结构预测模型  334
15.1  基于图的局部模型  334
15.1.1  序列标注  335
15.1.2  依存分析  337
15.1.3  成分句法分析  340
15.1.4  和线性模型的对比  342
15.2  基于转移的局部贪心模型  342
15.2.1  模型1  343
15.2.2  模型2  346
15.2.3  模型3  347
15.3  全局结构化模型  349
15.3.1  基于神经网络的条件随机场模型  349
15.3.2  全局规范化的基于转移的模型  355
总结  357
注释  358
习题  358
参考文献  359
第16章  两段式文本任务  361
16.1  序列到序列模型  361
16.1.1  模型1:基于长短期记忆网络  361
16.1.2  模型2:基于注意力机制  364
16.1.3  模型3:基于拷贝机制&nb

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP