• 动手学自然语言处理
21年品牌 40万+商家 超1.5亿件商品

动手学自然语言处理

全新正版 极速发货

38.56 4.3折 89.8 全新

库存60件

广东广州
认证卖家担保交易快速发货售后保障

作者屠可伟 等 著

出版社人民邮电出版社

ISBN9787115636461

出版时间2024-05

装帧平装

开本16开

定价89.8元

货号1203247614

上书时间2024-11-22

书香美美

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介
屠可伟,上海科技大学信息科学与技术学院长聘副教授、研究员、博士生导师。研究方向包括自然语言处理、机器学习等,主要研究将符号、统计和神经方法相结合用于语言结构的表示、学习与利用。发表论文100余篇,主要发表在ACL、EMNLP、AAAI 等人工智能领域顶级会议。担任多个顶级会议程序委员会委员和领域主席。曾获ACL 2023杰出论文奖,以及SemEval 2022和SemEval 2023最佳系统论文奖。
王新宇,上海科技大学博士,长期从事自然语言处理研究工作,在ACL、EMNLP、NAACL等顶级会议上发表论文10余篇,担任ACL、NAACL会议的领域主席以及ACL滚动审查(ACL Rolling Review)执行编辑。曾获得中国中文信息学会优秀博士学位论文提名、SemEval 2022最佳系统论文奖等荣誉。
曲彦儒,伊利诺伊大学厄巴纳-香槟分校博士生,长期从事自然语言处理研究工作,在ACL、NAACL、AAAI、ICLR等会议上发表了多篇论文。
俞勇,上海交通大学ACM班创办人,国家级教学名师,上海交通大学特聘教授。2018年创办伯禹人工智能学院,在上海交通大学ACM班人工智能专业课程体系的基础上,对人工智能课程体系进行创新,致力于培养卓越的人工智能算法工程师和研究员。

目录
第1章初探自然语言处理1

1.1自然语言处理是什么1

1.2自然语言处理的应用2

1.3自然语言处理的难点3

1.4自然语言处理的方法论4

1.5小结5

第一部分基础

第2章文本规范化8

2.1分词8

2.1.1基于空格与标点符号的分词8

2.1.2基于正则表达式的分词9

2.1.3词间不含空格的语言的分词12

2.1.4基于子词的分词13

2.2词规范化17

2.2.1大小写折叠17

2.2.2词目还原18

2.2.3词干还原19

2.3分句19

2.4小结20

第3章文本表示22

3.1词的表示22

3.2稀疏向量表示24

3.3稠密向量表示25

3.3.1word2vec25

3.3.2上下文相关词嵌入30

3.4文档表示30

3.4.1词-文档共现矩阵31

3.4.2TF-IDF加权31

3.4.3文档的稠密向量表示33

3.5小结33

第4章文本分类35

4.1基于规则的文本分类35

4.2基于机器学习的文本分类36

4.2.1朴素贝叶斯36

4.2.2逻辑斯谛回归42

4.3分类结果评价45

4.4小结47

第5章文本聚类49

5.1k均值聚类算法49

5.2基于高斯混合模型的最大期望值算法53

5.2.1高斯混合模型53

5.2.2最大期望值算法53

5.3无监督朴素贝叶斯模型57

5.4主题模型60

5.5小结61

第二部分序列

第6章语言模型64

6.1概述64

6.2n元语法模型66

6.3循环神经网络67

6.3.1循环神经网络67

6.3.2长短期记忆73

6.3.3多层双向循环神经网络76

6.4注意力机制80

多头注意力83

6.5Transformer模型85

6.6小结91

第7章序列到序列模型93

7.1基于神经网络的序列到序列模型93

7.1.1循环神经网络94

7.1.2注意力机制96

7.1.3Transformer98

7.2学习101

7.3解码106

7.3.1贪心解码106

7.3.2束搜索解码107

7.3.3其他解码问题与解决技巧110

7.4指针网络111

7.5序列到序列任务的延伸112

7.6小结113

第8章预训练语言模型114

8.1ELMo:基于语言模型的上下文相关词嵌入114

8.2BERT:基于Transformer的双向编码器表示115

8.2.1掩码语言模型115

8.2.2BERT模型116

8.2.3预训练116

8.2.4微调与提示117

8.2.5BERT代码演示117

8.2.6BERT模型扩展121

8.3GPT:基于Transformer的生成式预训练语言模型122

8.3.1GPT模型的历史122

8.3.2GPT-2训练演示123

8.3.3GPT的使用125

8.4基于编码器-解码器的预训练语言模型128

8.5基于HuggingFace的预训练语言模型使用129

8.5.1文本分类129

8.5.2文本生成130

8.5.3问答130

8.5.4文本摘要131

8.6小结131

第9章序列标注133

9.1序列标注任务133

9.1.1词性标注133

9.1.2中文分词134

9.1.3命名实体识别134

9.1.4语义角色标注135

9.2隐马尔可夫模型135

9.2.1模型135

9.2.2解码136

9.2.3输入序列的边际概率137

9.2.4单个标签的边际概率138

9.2.5监督学习139

9.2.6无监督学习139

9.2.7部分代码实现141

9.3条件随机场146

9.3.1模型146

9.3.2解码147

9.3.3监督学习148

9.3.4无监督学习149

9.3.5部分代码实现149

9.4神经序列标注模型154

9.4.1神经softmax154

9.4.2神经条件随机场154

9.4.3代码实现155

9.5小结156

第三部分结构

第10章成分句法分析160

10.1成分结构160

10.2成分句法分析概述161

10.2.1歧义性与打分161

10.2.2解码162

10.2.3学习162

10.2.4评价指标163

10.3基于跨度的成分句法分析163

10.3.1打分164

10.3.2解码165

10.3.3学习170

10.4基于转移的成分句法分析173

10.4.1状态与转移173

10.4.2转移的打分174

10.4.3解码175

10.4.4学习176

10.5基于上下文无关文法的成分句法分析177

10.5.1上下文无关文法177

10.5.2解码和学习178

10.6小结179

第11章依存句法分析181

11.1依存结构181

11.1.1投射性182

11.1.2与成分结构的关系182

11.2依存句法分析概述184

11.2.1打分、解码和学习184

11.2.2评价指标184

11.3基于图的依存句法分析185

11.3.1打分185

11.3.2解码186

11.3.3Eisner算法186

11.3.4MST算法191

11.3.5高阶方法194

11.3.6监督学习194

11.4基于转移的依存句法分析195

11.4.1状态与转移196

11.4.2打分、解码与学习196

11.5小结198

第12章语义分析200

12.1显式和隐式的语义表示200

12.2词义表示201

12.2.1WordNet201

12.2.2词义消歧203

12.3语义表示204

12.3.1专用和通用的语义表示204

12.3.2一阶逻辑205

12.3.3语义图205

12.4语义分析206

12.4.1基于句法的语义分析206

12.4.2基于神经网络的语义分析207

12.4.3弱监督学习209

12.5语义角色标注209

12.5.1语义角色标注标准209

12.5.2语义角色标注方法211

12.6信息提取211

12.7小结212

第13章篇章分析213

13.1篇章213

13.1.1连贯性关系213

13.1.2篇章结构214

13.1.3篇章分析215

13.2共指消解215

13.2.1提及检测216

13.2.2提及聚类216

13.3小结220

总结与展望221

参考文献223

中英文术语对照表228

附录234

内容摘要
本书介绍自然语言处理的原理和方法及其代码实现,是一本着眼于自然语言处理教学实践的图书。

本书分为3个部分。第一部分介绍基础技术,包括文本规范化、文本表示、文本分类、文本聚类。第二部分介绍自然语言的序列建模,包括语言模型、序列到序列模型、预训练语言模型、序列标注。第三部分介绍自然语言的结构建模,包括成分句法分析、依存句法分析、语义分析、篇章分析。本书将自然语言处理的理论与实践相结合,提供所介绍方法的代码示例,能够帮助读者掌握理论知识并进行动手实践。

本书适合作为高校自然语言处理课程的教材,也可作为相关行业的研究人员和开发人员的参考资料。

主编推荐
·名家作品:上海交通大学ACM班创办人俞勇教授、上海科技大学博士生导师屠可伟副教授等共同编写
·多位业内大咖力荐:文继荣|周明|邱锡鹏|李磊|杨笛一等学术及工业界大咖力荐
·配套资源丰富:配套源代码+在线视频课程+在线讨论区+在线习题+教学课件,助你轻松入门并系统学习大模型背后的自然语言处理底层技术

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP