• 自然语言处理:基于机器学习视角 9787111742234
  • 自然语言处理:基于机器学习视角 9787111742234
21年品牌 40万+商家 超1.5亿件商品

自然语言处理:基于机器学习视角 9787111742234

全新正版 可开票 支持7天无理由,不清楚的请咨询客服。

75.11 5.4折 139 全新

库存5件

浙江嘉兴
认证卖家担保交易快速发货售后保障

作者张岳 滕志扬

出版社机械工业

ISBN9787111742234

出版时间2024-03

装帧其他

开本其他

定价139元

货号32030944

上书时间2024-04-06

倒爷图书专营店

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介
张 岳西湖大学教授。主要研究领域为自然语言处理、文本挖掘及相关的机器学习方法。研究成果包括机器学习引导搜索的结构预测算法、多任务联合模型、文本表示和图神经网络、自然语言处理中的常识、逻辑推理以及泛化问题,因果机制引导的自然语言处理等。担任国内外顶级会议CCL2020、EMNLP2022程序委员会共同主席。担任TransactionsforACL期刊执行编辑,以及四个Transaction期刊副主编。获多个国际会议最佳论文奖。
滕志扬2011年本科毕业于东北大学,2014年硕士毕业于中国科学院大学,2018年博士毕业于新加坡科技与设计大学(SUTD),专业方向是自然语言处理和机器学习。他于2018-2022年在西湖大学担任助理研究员。2022-2023年,在新加坡南洋理工大学计算机科学与工程学院的S-lab高级智能实验室曾先后担任研究员和研究型助理教授。在自然语言处理领域的国际和国内顶级会议及期刊上共发表论文30多篇,并在2014年的CCL/NABD会议上获得最佳论文奖。此外,还曾在EMNLP2021、AACL-IJCNLP2022和EMNLP2022担任领域主席。

目录
目录
中文版序
译者序
前言
符号表
第一部分 基础知识
第1章 绪论 2
1.1 自然语言处理的概念 2
1.2 自然语言处理任务 3
1.2.1 基础任务 4
1.2.2 信息抽取任务 12
1.2.3 应用 16
1.2.4 小结 18
1.3 机器学习视角下的自然语言
处理任务 18
总结 19
注释 19
习题 19
参考文献 21
第2章 相对频率 35
2.1 概率建模 35
2.1.1 最大似然估计 35
2.1.2 词概率建模 36
2.1.3 模型与概率分布 37
2.2 n元语言模型 41
2.2.1 一元语言模型 41
2.2.2 二元语言模型 43
2.2.3 三元及高阶语言模型 46
2.2.4 生成式模型 48
2.3 朴素贝叶斯文本分类器 49
2.3.1 朴素贝叶斯文本分类 50
2.3.2 文本分类器的评估 52
2.3.3 边缘概率的计算 53
2.3.4 特征 53
总结 54
注释 54
习题 54
参考文献 56
第3章 特征向量 57
3.1 文本在向量空间中的表示 57
3.1.1 聚类 59
3.1.2 k均值聚类 61
3.1.3 分类 62
3.1.4 支持向量机 63
3.1.5 感知机 65
3.2 多分类 66
3.2.1 定义基于输出的特征 67
3.2.2 多分类支持向量机 68
3.2.3 多分类感知机 69
3.3 线性判别式模型 70
3.3.1 判别式模型及其特征 70
3.3.2 线性模型的点积形式 72
3.4 向量空间与模型训练 72
3.4.1 可分性与泛化性 72
3.4.2 处理非线性可分数据 73
总结 74
注释 74
习题 74
参考文献 76
第4章 判别式线性分类器  78
4.1 对数线性模型 78
4.1.1 二分类对数线性模型的训练 79
4.1.2 多分类对数线性模型的训练 83
4.1.3 利用对数线性模型进行分类 85
4.2 基于随机梯度下降法训练支持向量机 85
4.2.1 二分类支持向量机的训练 86
4.2.2 多分类支持向量机的训练 87
4.2.3 感知机训练的目标函数 88
4.3 广义线性模型 88
4.3.1 统一在线训练 89
4.3.2 损失函数 89
4.3.3 正则化 92
4.4 模型融合 92
4.4.1 模型性能比较 92
4.4.2 模型集成 93
4.4.3 半监督学习 95
总结 96
注释 96
习题 97
参考文献 99
第5章 信息论观点 101
5.1 最大熵原理 101
5.1.1 朴素最大熵模型 103
5.1.2 条件熵 104
5.1.3 最大熵模型与训练数据 105
5.2 KL散度与交叉熵 108
5.2.1 交叉熵和最大似然估计 109
5.2.2 模型困惑度 110
5.3 互信息 111
5.3.1 点互信息 112
5.3.2 基于点互信息的文本挖掘 113
5.3.3 基于点互信息的特征选取 115
5.3.4 词的点互信息与向量表示 115
总结 117
注释 117
习题 117
参考文献 120
第6章 隐变量 121
6.1 期望最大算法 121
6.1.1 k均值算法 123
6.1.2 期望最大算法介绍 125
6.2 基于期望最大算法的隐变量模型 127
6.2.1 无监督朴素贝叶斯模型 127
6.2.2 IBM模型1 130
6.2.3 概率潜在语义分析 136
6.2.4 生成模型的相对优势 138
6.3 期望最大算法的理论基础 138
6.3.1 期望最大与KL散度 139
6.3.2 基于数值优化的期
望最大算法推导 140
总结 141
注释 142
习题 142
参考文献 144
第二部分 结构研究
第7章 生成式序列标注任务 146
7.1 序列标注 146
7.2 隐马尔可夫模型 147
7.2.1 隐马尔可夫模型的训练 149
7.2.2 解码 149
7.3 计算边缘概率 153
7.3.1 前向算法 154
7.3.2 后向算法 154
7.3.3 前向-后向算法 156
7.3.4 二阶隐马尔可夫模型的前向-后向算法 156
7.4 基于期望最大算法的无监督隐马尔可夫模型训练 158
总结 164
注释 164
习题 165
参考文献 166
第8章 判别式序列标注任务 168
8.1 局部训练的判别式序列标注模型 168
8.2 标注偏置问题 171
8.3 条件随机场 172
8.3.1 全局特征向量 173
8.3.2 解码 174
8.3.3 边缘概率计算 175
8.3.4 训练 178
8.4 结构化感知机 181
8.5 结构化支持向量机 184
总结 186
注释 186
习题 186
参考文献 188
第9章 序列分割 189
9.1 基于序列标注的序列分割任务 189
9.1.1 面向分词的序列标注特征 190
9.1.2 面向句法组块分析的序列标注特征 192
9.1.3 面向命名实体识别的序列标注特征 192
9.1.4 序列分割输出的评价方式 193
9.2 面向序列分割的判别式模型 193
9.2.1 分词中的词级别特征 194
9.2.2 基于动态规划的精确搜索解码 195
9.2.3 半马尔可夫条件随机场 197
9.2.4 最大间隔模型 202
9.3 结构化感知机与柱搜索 203
9.3.1 放宽特征局部约束 204
9.3.2 柱搜索解码 205
总结 207
注释 207
习题 207
参考文献 208
第10章 树结构预测 210
10.1 生成式成分句法分析 210
10.1.1 概率上下文无关文法 212
10.1.2 CKY解码 213
10.1.3 成分句法解析器的性能评估 215
10.1.4 边缘概率的计算 215
10.2 成分句法分析的特征 218
10.2.1 词汇化概率上下文无关文法 218
10.2.2 判别式成分句法分析模型 221
10.2.3 面向成分句法分析的对数线性模型 222
10.2.4 面向成分句法分析的最大间隔模型 225
10.3 重排序 225
10.4 序列和树结构总结及展望 228
总结 228
注释 228
习题 229
参考文献 230
第11章 基于转移的结构预测模型 233
11.1 基于转移的结构化预测 233
11.1.1 贪心式局部模型 235
11.1.2 结构化全局模型 236
11.2 基于转移的成分句法分析 239
11.2.1 移进归约成分句法分析 239
11.2.2 特征模板 241
11.3 基于转移的依存句法分析 242
11.3.1 标准弧转移依存句法分析 243
11.3.2 依存句法解析器的评价方法 245
11.3.3 贪心弧转移依存句法分析 245
11.3.4 基于SWAP动作的非投影树解析 246
11.4 句法分析联合模型 247
11.4.1 分词、词性标注与依存句法分析联合模型 248
11.4.2 讨论 250
总结 251
注释 251
习题 251
参考文献 252
第12章 贝叶斯网络 254
12.1 通用概率模型 254
12.2 贝叶斯网络的训练 257
12.2.1 最大似然估计 258
12.2.2 最大后验估计 259
12.2.3 共轭先验 261
12.2.4 贝叶斯估计 263
12.2.5 贝叶斯一元语言模型 265
12.3 推理 266
12.3.1 精确推理 266
12.3.2 吉布斯采样 267
12.4 潜在狄利克雷分配 269
12.4.1 带有隐变量的训练过程 271
12.4.2 潜在狄利克雷分配模型的应用 274
12.4.3 主题评价 275
12.5 贝叶斯IBM模型1 276
总结 276
注释 277
习题 277
参考文献 278
第三部分 深度学习
第13章 神经网络 282
13.1 从单层网络到多层网络 282
13.1.1 面向文本分类任务的多层感知机 284
13.1.2 多层感知机的训练 287
13.2 构建不依赖人工特征的文本分类器 292
13.2.1 词嵌入 293
13.2.2 序列编码层 293
13.2.3 输出层 296
13.2.4 训练 297
13.3 神经网络的训练优化 298
13.3.1 Short-cut连接 298
13.3.2 层标准化 298
13.3.3 Dropout机制 299
13.3.4 神经网络随机梯度下降训练算法的优化 299
13.3.5 超参数搜索 301
总结 301
注释 301
习题 301
参考文献 303
第14章 表示学习 305
14.1 循环神经网络 305
14.1.1 朴素循环神经网络 306
14.1.2 循环神经网络的训练 307
14.1.3 长短期记忆网络与门控循环单元 309
14.1.4 堆叠式长短期记忆网络 311
14.2 注意力机制 312
14.2.1 键值对注意力 313
14.2.2 自注意力网络 315
14.3 树结构 315
14.3.1 Child-Sum树形长短期记忆网络 316
14.3.2 二叉树长短期记忆网络 318
14.3.3 特征对比 319
14.4 图结构 319
14.4.1 图循环神经网络 320
14.4.2 图卷积神经网络 321
14.4.3 图注意力神经网络 322
14.4.4 特征聚合 323
14.5 表示向量的分析 323
14.6 神经网络的训练 324
14.6.1 AdaGrad算法 324
14.6.2 RMSProp算法 325
14.6.3 AdaDelta算法 325
14.6.4 Adam算法 326
14.6.5 优化算法的选择 327
总结 327
注释 327
习题 328
参考文献 331
第15章 基于神经网络的结构预测模型 334
15.1 基于图的局部模型 334
15.1.1 序列标注 335
15.1.2 依存分析 337
15.1.3 成分句法分析 340
15.1.4 和线性模型的对比 342
15.2 基于转移的局部贪心模型 342
15.2.1 模型1 343
15.2.2 模型2 346
15.2.3 模型3 347
15.3 全局结构化模型 349
15.3.1 基于神经网络的条件随机场模型 349
15.3.2 全局规范化的基于转移的模型 355
总结 357
注释 358
习题 358
参考文献 359
第16章 两段式文本任务 361
16.1 序列到序列模型 361
16.1.1 模型1:基于长短期记忆网络 361
16.1.2 模型2:基于注意力机制 364
16.1.3 模型3:基于拷贝机制 365
16.1.4 子词模型 367
16.1.5 基于多头自注意力网络的序列到序列模型 368
16.2 文本匹配模型 372
16.2.1 文本匹配  372
16.2.2 匹配查询  376
16.2.3 记忆网络 378
总结 381
注释 382
习题 382
参考文献 384
第17章 预训练与迁移学习 386
17.1 神经网络语言模型与词
向量 386
17.1.1 神经网络n元语言
模型 386
17.1.2 噪声对比估计 388
17.1.3 神经网络语言模型的优化 391
17.1.4 分布式词表示 392
17.1.5 引入全局统计信息的词向量(GloVe) 394
17.1.6 词向量评估 395
17.1.7 词向量与未知词 397
17.1.8 基于n元组字符的词向量 397
17.2 上下文相关的词表示 398
17.2.1 循环神经网络语言模型 398
17.2.2 基于上下文的词向量 399
17.2.3 基于自注意力的上下文词向量 400
17.2.4 双向自注意力网络语言模型 401
17.2.5 上下文相关词向量的使用 403
17.3 迁移学习 403
17.3.1 多任务学习 403
17.3.2 共享参数的选择 405
17.3.3 共享-私有网络结构 406
总结 407
注释 408
习题 408
参考文献 410
第18章 深度隐变量模型 412
18.1 将隐变量引入神经网络 412
18.2 使用类别隐变量 413
18.2.1 SGD模型训练 413
18.2.2 文本聚类的词袋模型 415
18.2.3 考虑序列信息的文本聚类模型 417
18.3 使用结构化隐变量 418
18.3.1 引入结构化隐变量 418
18.3.2 序列标注 420
18.3.3 序列分割 420
18.3.4 成分句法 421
18.4 变分推理 422
18.4.1 证据下界 422
18.4.2 坐标上升变分推理 423
18.4.3 随机变分推理 424
18.4.4 分摊变分推理 425
18.4.5 变分自编码器 426
18.4.6 重参数化 429
18.5 神经主题模型 431
18.5.1 神经变分文档模型 431
18.5.2 神经主题模型介绍 432
18.6 面向语言模型的变分自编码器 432
18.6.1 TextVAE 432
18.6.2 变分序列到序列模型 435
总结 437
注释 437
习题 438
参考文献 439
索引 441

内容摘要
本书从机器学习的角度系统地讨论自然语言处理,提供了对NLP解决方案更深入的数学理解。学生可以利用这些知识来解决NLP任务,并建立更好的NLP模型。

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP