• 机器翻译 基础与模型
  • 机器翻译 基础与模型
  • 机器翻译 基础与模型
  • 机器翻译 基础与模型
  • 机器翻译 基础与模型
  • 机器翻译 基础与模型
21年品牌 40万+商家 超1.5亿件商品

机器翻译 基础与模型

全新正版 极速发货

181.19 6.1折 299 全新

库存5件

广东广州
认证卖家担保交易快速发货售后保障

作者肖桐,朱靖波

出版社电子工业出版社

ISBN9787121335198

出版时间2021-10

装帧平装

开本16开

定价299元

货号1202495194

上书时间2024-11-25

书香美美

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
目录
第1部分机器翻译基础

1机器翻译简介.2

1.1机器翻译的概念.2

1.2机器翻译简史.4

1.2.1人工翻译.4

1.2.2机器翻译的萌芽.5

1.2.3机器翻译的受挫.6

1.2.4机器翻译的快速成长.7

1.2.5机器翻译的爆发.8

1.3机器翻译现状及挑战.9

1.4基于规则的机器翻译方法.12

1.4.1规则的定义.12

1.4.2转换法.13

1.4.3基于中间语言的方法.15

1.4.4基于规则的方法的优缺点.16

1.5数据驱动的机器翻译方法.16

1.5.1基于实例的机器翻译.16

1.5.2统计机器翻译.17

1.5.3神经机器翻译.18

1.5.4对比分析.19

1.6推荐学习资源.20

1.6.1经典书籍.20

1.6.2相关学术会议.21

2统计语言建模基础.24

2.1概率论基础.24

2.1.1随机变量和概率.24

2.1.2联合概率、条件概率和边缘概率.26

2.1.3链式法则.27

2.1.4贝叶斯法则.28

2.1.5KL距离和熵.29

2.2掷骰子游戏.31

2.3n-gram语言模型.34

2.3.1建模.35

2.3.2参数估计和平滑算法.37

2.3.3语言模型的评价.42

2.4预测与搜索.43

2.4.1搜索问题的建模.44

2.4.2经典搜索.47

2.4.3局部搜索.50

2.5小结及拓展阅读.52

3词法分析和语法分析基础.54

3.1问题概述.54

3.2中文分词.56

3.2.1基于词典的分词方法.57

3.2.2基于统计的分词方法.58

3.3命名实体识别.60

3.3.1序列标注任务.60

3.3.2基于特征的统计学习.62

3.3.3基于概率图模型的方法.63

3.3.4基于分类器的方法.69

3.4句法分析.71

3.4.1句法树.71

3.4.2上下文无关文法.73

3.4.3规则和推导的概率.77

3.5小结及拓展阅读.79

4翻译质量评价.81

4.1译文质量评价面临的挑战.81

4.2人工评价.84

4.2.1评价策略.84

4.2.2打分标准.85

4.3有参考答案的自动评价.86

4.3.1基于词串比对的评价方法.86

4.3.2基于词对齐的评价方法.89

4.3.3基于检测点的评价方法.93

4.3.4多策略融合的评价方法.94

4.3.5译文多样性.94

4.3.6相关性与显著性.98

4.4无参考答案的自动评价.101

4.4.1质量评估任务.101

4.4.2构建质量评估模型.106

4.4.3质量评估的应用场景.107

4.5小结及拓展阅读.108

第2部分统计机器翻译

5基于词的机器翻译建模.111

5.1词在翻译中的作用.111

5.2一个简单实例.113

5.2.1翻译的流程.113

5.2.2统计机器翻译的基本框架.115

5.2.3单词级翻译模型.116

5.2.4句子级翻译模型.119

5.2.5解码.122

5.3噪声信道模型.125

5.4统计机器翻译的3个基本问题.127

5.4.1词对齐.128

5.4.2基于词对齐的翻译模型.129

5.4.3基于词对齐的翻译实例.130

5.5IBM模型1.131

5.5.1IBM模型1的建模.131

5.5.2解码及计算优化.133

5.5.3训练.134

5.6小结及拓展阅读.140

6基于扭曲度和繁衍率的模型.142

6.1基于扭曲度的模型.142

6.1.1什么是扭曲度.142

6.1.2IBM模型2.144

6.1.3隐马尔可夫模型.145

6.2基于繁衍率的模型.146

6.2.1什么是繁衍率.146

6.2.2IBM模型3.149

6.2.3IBM模型4.151

6.2.4IBM模型5.152

6.3解码和训练.154

6.4问题分析.154

6.4.1词对齐及对称化.154

6.4.2“缺陷”问题.155

6.4.3句子长度.156

6.4.4其他问题.156

6.5小结及拓展阅读.157

7基于短语的模型.158

7.1翻译中的短语信息.158

7.1.1词的翻译带来的问题.158

7.1.2更大粒度的翻译单元.159

7.1.3机器翻译中的短语.161

7.2数学建模.164

7.2.1基于翻译推导的建模.164

7.2.2对数线性模型.166

7.2.3判别模型中的特征.167

7.2.4搭建模型的基本流程.167

7.3短语抽取.168

7.3.1与词对齐一致的短语.168

7.3.2获取词对齐.169

7.3.3度量双语短语质量.170

7.4翻译调序建模.172

7.4.1基于距离的调序.172

7.4.2基于方向的调序.173

7.4.3基于分类的调序.174

7.5翻译特征.175

7.6最小错误率训练.175

7.7栈解码.179

7.7.1翻译候选匹配.180

7.7.2翻译假设扩展.181

7.7.3剪枝.181

7.7.4解码中的栈结构.183

7.8小结及拓展阅读.184

8基于句法的模型.186

8.1翻译中句法信息的使用.186

8.2基于层次短语的模型.188

8.2.1同步上下文无关文法.190

8.2.2层次短语规则抽取.194

8.2.3翻译特征.196

8.2.4CKY解码.197

8.2.5立方剪枝.200

8.3基于语言学句法的模型.203

8.3.1基于句法的翻译模型分类.205

8.3.2基于树结构的文法.206

8.3.3树到串翻译规则抽取.212

8.3.4树到树翻译规则抽取.220

8.3.5句法翻译模型的特征.223

8.3.6基于超图的推导空间表示.224

8.3.7基于树的解码vs基于串的解码.227

8.4小结及拓展阅读.231

第3部分神经机器翻译

9神经网络和神经语言建模.234

9.1深度学习与神经网络.234

9.1.1发展简史.235

9.1.2为什么需要深度学习.237

9.2神经网络基础.239

9.2.1线性代数基础.239

9.2.2神经元和感知机.244

9.2.3多层神经网络.248

9.2.4函数拟合能力.252

9.3神经网络的张量实现.256

9.3.1张量及其计算.256

9.3.2张量的物理存储形式.259

9.3.3张量的实现手段.259

9.3.4前向传播与计算图.260

9.4神经网络的参数训练.262

9.4.1损失函数.262

9.4.2基于梯度的参数优化.264

9.4.3参数更新的并行化策略.272

9.4.4梯度消失、梯度爆炸和稳定性训练.273

9.4.5过拟合.275

9.4.6反向传播.276

9.5神经语言模型.281

9.5.1基于前馈神经网络的语言模型.281

9.5.2对于长序列的建模.284

9.5.3单词表示模型.286

9.5.4句子表示模型.288

9.6小结及拓展阅读.290

10基于循环神经网络的模型.292

10.1神经机器翻译的发展简史.292

10.1.1神经机器翻译的起源.294

10.1.2神经机器翻译的品质.296

10.1.3神经机器翻译的优势.298

10.2编码器-解码器框架.300

10.2.1框架结构.300

10.2.2表示学习.301

10.2.3简单的运行实例.302

10.2.4机器翻译范式的对比.303

10.3基于循环神经网络的翻译建模.304

10.3.1建模.305

10.3.2长短时记忆网络.308

10.3.3门控循环单元.310

10.3.4双向模型.311

10.3.5多层神经网络.312

10.4注意力机制.313

10.4.1翻译中的注意力机制.314

10.4.2上下文向量的计算.315

10.4.3注意力机制的解读.318

10.4.4实例:GNMT.320

10.5训练及推断.321

10.5.1训练.321

10.5.2推断.327

10.6小结及拓展阅读.331

11基于卷积神经网络的模型.332

11.1卷积神经网络.332

11.1.1卷积核与卷积操作.333

11.1.2步长与填充.335

11.1.3池化.336

11.1.4面向序列的卷积操作.337

11.2基于卷积神经网络的翻译建模.339

11.2.1位置编码.341

11.2.2门控卷积神经网络.341

11.2.3残差网络.343

11.2.4多步注意力机制.344

11.2.5训练与推断.346

11.3局部模型的改进.347

11.3.1深度可分离卷积.347

11.3.2轻量卷积和动态卷积.349

11.4小结及拓展阅读.351

12基于自注意力的模型.352

12.1自注意力机制.352

12.2Transformer模型.354

12.2.1Transformer的优势.354

12.2.2总体结构.355

12.3位置编码.357

12.4基于点乘的多头注意力机制.359

12.4.1点乘注意力机制.359

12.4.2多头注意力机制.362

12.4.3掩码操作.363

12.5残差网络和层标准化.363

12.6前馈全连接网络子层.365

12.7训练.366

12.8推断.368

12.9小结及拓展阅读.369

第4部分机器翻译前沿

13神经机器翻译模型训练.371

13.1开放词表.371

13.1.1大词表和未登录词问题.372

13.1.2子词.372

13.1.3双字节编码.373

13.1.4其他方法.375

13.2正则化.376

13.2.1L1/L2正则化.377

13.2.2标签平滑.378

13.2.3Dropout.379

13.3对抗样本训练.381

13.3.1对抗样本与对抗攻击.382

13.3.2基于黑盒攻击的方法.383

13.3.3基于白盒攻击的方法.384

13.4学习策略.385

13.4.1极大似然估计的问题.385

13.4.2非Teacher-forcing方法.386

13.4.3强化学习方法.388

13.5知识蒸馏.392

13.5.1什么是知识蒸馏.392

13.5.2知识蒸馏的基本方法.393

13.5.3机器翻译中的知识蒸馏.395

13.6基于样本价值的学习.396

13.6.1数据选择.396

13.6.2课程学习.399

13.6.3持续学习.401

13.7小结及拓展阅读.401

14神经机器翻译模型推断.403

14.1面临的挑战.403

14.2基本问题.405

14.2.1推断方向.405

14.2.2译文长度控制.406

14.2.3搜索终止条件.408

14.2.4译文多样性.408

14.2.5搜索错误.409

14.3轻量模型.410

14.3.1输出层的词汇选择.411

14.3.2消除冗余计算.411

14.3.3轻量解码器及小模型.413

14.3.4批量推断.414

14.3.5低精度运算.414

14.4非自回归翻译.416

14.4.1自回归vs非自回归.416

14.4.2非自回归翻译模型的结构.417

14.4.3更好的训练目标.420

14.4.4引入自回归模块.421

14.4.5基于迭代精化的非自回归翻译模型.423

14.5多模型集成.424

14.5.1假设选择.424

14.5.2局部预测融合.426

14.5.3译文重组.427

14.6小结与拓展阅读.428

15神经机器翻译模型结构优化.430

15.1注意力机制的改进.430

15.1.1局部信息建模.430

15.1.2多分支结构.437

15.1.3引入循环机制.439

15.1.4高效的自注意力模型.440

15.2神经网络连接优化及深层模型.441

15.2.1Post-NormvsPre-Norm.442

15.2.2高效信息传递.444

15.2.3面向深层模型的参数初始化策略.448

15.2.4深层模型的训练加速.451

15.2.5深层模型的健壮性训练.454

15.3基于句法的神经机器翻译模型.456

15.3.1在编码器中使用句法信息.456

15.3.2在解码器中使用句法信息.461

15.4基于结构搜索的翻译模型优化.463

15.4.1网络结构搜索.464

15.4.2网络结构搜索的基本方法.465

15.4.3机器翻译任务下的网络结构搜索.468

15.5小结及拓展阅读.470

16低资源神经机器翻译.471

16.1数据的有效使用.471

16.1.1数据增强.472

16.1.2基于语言模型的方法.477

16.2双向翻译模型.482

16.2.1双向训练.482

16.2.2对偶学习.483

16.3多语言翻译模型.486

16.3.1基于枢轴语言的方法.486

16.3.2基于知识蒸馏的方法.487

16.3.3基于迁移学习的方法.488

16.4无监督机器翻译.491

16.4.1无监督词典归纳.491

16.4.2无监督统计机器翻译.494

16.4.3无监督神经机器翻译.495

16.5领域适应.499

16.5.1基于数据的方法.500

16.5.2基于模型的方法.501

16.6小结及拓展阅读.503

17多模态、多层次机器翻译.504

17.1机器翻译需要更多的上下文.504

17.2语音翻译.505

17.2.1音频处理.505

17.2.2级联语音翻译.507

17.2.3端到端语音翻译.508

17.3图像翻译.513

17.3.1基于图像增强的文本翻译.514

17.3.2图像到文本的翻译.516

17.3.3图像、文本到图像的翻译.519

17.4篇章级翻译.519

17.4.1篇章级翻译的挑战.519

17.4.2篇章级翻译的评价.520

17.4.3篇章级翻译的建模.521

17.4.4在推断阶段结合篇章上下文.525

17.5小结及拓展阅读.526

18机器翻译应用技术.528

18.1机器翻译的应用并不简单.528

18.2增量式模型优化.529

18.3交互式机器翻译.530

18.4翻译结果的可干预性.532

18.5小设备机器翻译.533

18.6机器翻译系统的部署.534

18.7机器翻译的应用场景.535

随笔.538

后记.543

附录A.545

A.1统计机器翻译开源系统.545

A.2神经机器翻译开源系统.546

附录B.548

B.1公开评测任务.548

B.2基准数据集.550

B.3平行语料.551

附录C.552

C.1IBM模型2的训练方法.552

C.2IBM模型3的训练方法.553

C.3IBM模型4的训练方法.555

C.4IBM模型5的训练方法.556

参考文献.558

索引.616

内容摘要
利用机器翻译技术实现不同语言之间的自由交流始终是最令人期待的计算机应用之一。本书全面回顾了近30年来机器翻译的技术发展历程,遵循机器翻译技术的发展脉络,对基于统计和基于端到端深度学习的机器翻译关键技术及原理进行了深入讲解,力求做到简洁明了、全面透彻、图文结合。此外,本书着重介绍了近年来机器翻译领域的科研热点及其结果,旨在帮助读者全面了解机器翻译的前沿研究进展和关键技术。本书可供计算机相关专业高年级本科生及研究生学习使用,也可作为自然语言处理,特别是机器翻译相关研究人员的案边手册。

主编推荐
"√系统梳理近年来机器翻译发展的技术脉络、技术落地的思路
√概述了机器翻译的基础内容、统计机器翻译模型、神经机器翻译模型
√涵盖了前沿技术,如模型结构优化、低资源机器翻译、多模态机器翻译等,涉及大量实践经验
√帮助读者建立完整的知识体系"

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP