• 神经机器翻译
21年品牌 40万+商家 超1.5亿件商品

神经机器翻译

批量上传,套装书可能不全,下单前咨询在线客服! 正版书 !!!

67.59 4.9折 139 全新

库存2件

四川成都
认证卖家担保交易快速发货售后保障

作者菲利普·科恩(Philipp Koehn)

出版社机械工业出版社

ISBN9787111701019

出版时间2022-04

装帧平装

开本16开

定价139元

货号29386978

上书时间2024-10-20

百叶图书

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
前言

作者寄语
Neural Machine Translation
It is an honor to see my second book on machine translation become available in Chinese. I would like to thank the translators Jiajun Zhang, Yang Zhao and Chengqing Zong to make this possible.
This book arrives at an exciting time for machine translation research in China. While data-driven methods have put a special emphasis on Chinese for two decades, this work has been taken on increasingly by researchers in China, both in academic institutions and the emerging artificial intelligence companies. I am looking forward to their continued contribution to the research field and I hope that the translation of this book may contribute to stimulate broad interest in this topic.
Success of machine translation models in the real world is measured by how useful it is for people to access information and communicate across language barriers. It is my ultimate hope that machine translation can play a role in improving understanding of people across the world, regardless of their native language. Enabling open exchange of ideas is essential not only for scientific research but also to the realization that all of humanity needs to work together to reach the common goal of life, liberty, and pursuit of happiness in harmony with nature.
很高兴看到我的第二本关于机器翻译的作品的中文版问世。感谢三位译者张家俊、赵阳和宗成庆为此所做的一切。
本书的出版恰逢中国机器翻译研究迅猛发展之时。在过去的二十年里,数据驱动方法对中文给予了特别的重视,无论是在学术研究机构内,还是在新兴的人工智能公司中,中国的研究人员都做了大量工作。我期待着他们继续为这一研究领域做出贡献,我也希望本书能够激发人们对这一主题的广泛兴趣。
机器翻译模型在现实世界中成功与否取决于它在获取信息、跨越语言障碍进行交流方面的实用性。我终希望机器翻译能够让世界各地的人们增进理解,不管他们的母语是什么。开放的思想交流不仅对于科学研究至关重要,而且对于全人类共同努力以实现自由生活,追求与自然和谐相处的幸福这一共同目标同样重要。

 

译者序
Neural Machine Translation
本书作者菲利普·科恩(Philipp Koehn)于2010年出版了Statistical Machine Translation(剑桥大学出版社出版),该书成为国际统计机器翻译领域颇具影响力的权威之作。宗成庆研究员牵头翻译了该著作并于2012年在国内出版(即《统计机器翻译》),为国内统计机器翻译技术研究和学习提供了一部重要的中文参考文献。就在该书中文版出版一年左右时,神经机器翻译方法被提出,并得到了飞速发展,端到端的神经翻译模型不仅成为该领域的主流范式,而且几乎是所有自然语言处理任务,甚至是众多视频和图像处理任务的范式。正是在这种神经模型盛行的大时代背景下,2020年菲利普·科恩出版了Neural Machine Translation(《神经机器翻译》)。这部教材不仅是对《统计机器翻译》的扩充和延伸,也是对神经网络、深度学习及其应用技术的普及和推广。
机械工业出版社刘锋编辑慧眼识珠,以职业编辑敏锐的视角选择了这部优秀著作,并联系我们商讨翻译事宜。基于之前翻译《统计机器翻译》的经验和多年来与菲利普保持的友好关系,而且机器翻译本身就是我们团队研究的主要方向之一,我们毫不犹豫地接受了这项翻译任务。2020年秋天我们开始了全书的翻译工作,经过几轮修改和校对,2021年夏季翻译完成,前后用了近一年时间。
本书前9章主要由赵阳博士翻译,后8章主要由张家俊研究员翻译,宗成庆研究员对全书进行统稿,并对照原文进行了逐词逐句的审校。中国科学院自动化研究所自然语言处理研究组的部分研究生为本书的翻译和初校给予了相应的帮助,他们是金飞虎、陆金梁、王迁、闫璟辉、田科、王晨、伍凌辉、张志扬、王世宁、何灏、贺楚祎、孙静远、韩旭和卢宇。如果没有他们的帮助,本书的出版必然要晚一些,在此谨向他们表示衷心的感谢!
在深度学习时代,机器翻译技术得到了突破性的发展,翻译质量大幅提升。作为从事机器翻译技术研究多年的学者,我们也曾设想是否可以利用当前好的机器翻译系统协助我们完成本书的翻译工作,但遗憾的是,面对学术著作出版这类严肃的翻译任务,目前尚没有一个机器翻译系统能够胜任,机器译文中大量存在的术语翻译不当、前后翻译不一致、错翻和漏翻等问题让我们不得不放弃这种“投机”幻想。当然,作为机器翻译研究者,我们也深知没有一个公开的商业化机器翻译系统是针对某个特定的技术领域开发的,否则出版社就没必要找我们合作了。
受译者的能力和水平所限,译文中难免会有诸多欠缺和疏漏。为此,我们恳请读者对任何不妥之处给予批评指正,提出宝贵的修改意见或建议!
当本书作者菲利普·科恩教授得知我们正在将他这本著作翻译成中文版时非常高兴,欣然为中文版读者撰写了寄语。在此,我们向科恩教授表示衷心的感谢!

译者
2021年7月

 

前 言
Neural Machine Translation
在Statistical Machine Translation出版十年后,机器翻译技术发生了翻天覆地的变化。与人工智能中的其他领域一样,深度神经网络已经成为主流范式,在提高翻译质量的同时也带来了新的挑战。
你手里拿着的这本书于几年前开始撰写,并准备作为我之前那本教科书第二版的一章,但是新的技术发展得如此迅速,以前的统计翻译方法目前已经很少使用,以至于原先准备的一章内容发展成了一本书。除了关于机器翻译评价的章节,这两本书之间几乎没有重叠。对于对机器翻译感兴趣的新读者来说,这是个好消息。我们都是在几年前才重新开始了解该领域的,所以你们也并不落后。
虽然机器翻译是自然语言处理的一个具体应用,而且本书仅限于这种应用,但这里介绍的概念仍然是解决许多其他语言问题的关键基础。文本分类、情感分析、信息抽取、文本摘要、自动问答与对话系统等应用任务都采用了相似的模型和方法,因此本书介绍的技术适用于更加广泛的领域,甚至其他类型的任务,如语音识别、游戏、计算机视觉乃至自动驾驶汽车,都建立在同样的原理之上。
这本书能够出版,得益于许多人的建议和反馈。我要特别感谢约翰斯·霍普金斯大学研究实验室以及语言和语音处理中心的同事Kevin Duh、Matt Post、Ben Van Durme、Jason Eisner、David Yarowsky、Sanjeev Khudanpur、Najim Dehak、Dan Povey、Raman Arora、Mark Dredze、Paul McNamee、Hynek Hermansky、Tom Lippincott、Shinji Watanabe,以及我的博士生Rebecca Knowles、Adi Renduchitala、Gaurav Kumar、Shuoyang Ding、Huda Khayrallah、Brian Thompson、Becky Marvin、Kelly Marchisio和Xutai Ma。还要感谢我之前工作过的爱丁堡大学,那里的Barry Haddow、Lexi Birch、Rico Sennrich和Ken Heafield是神经机器翻译领域的先驱。我与许多研究人员进行了卓有成效的讨论,这拓宽了我的视野,虽然无法将他们一一列出,但我要明确感谢Holger Schwenk、Marcin Junczys-Dowmunt、Chris Dyer、Graham Neubig、Alexander Fraser、Marine Carpuat、Lucia Specia、Jon May、George Foster和Collin Cherry。这本书也得益于我在机器翻译技术的实际部署上的经验。我曾与Meta合作,为上百种语言开发了机器翻译技术,我要感谢Paco Guzmán、Vishrav Chaudhary、Juan Pino、Ahmed Kishky、Benxing Wu、Javad Dousti、Yuqing Tang、Don Husa、Denise Diaz、Qing Sun、Hongyu Gong、Shuohui、Ves Stoyanov、Xian Li、James Cross、Liezl Puzon、Dmitriy Genzel、Fazil Ayan、Myle Ott、Michael Auli和Franz Och。在与Dion Wiggins和Gregory Binger领导的Omniscien Technology的长期合作中,我了解了商业机器翻译市场的变化趋势。我从Achim Ruopp、Kelly Marchisio、Kevin Duh、Mojtaba Sabbagh-Jafari、Parya Razmdide、Kyunghyun Cho、Chris Dyer和Rico Sennrich那里获得了对本书初稿的宝贵反馈意见。



导语摘要

本书介绍自然语言处理的一个应用—机器翻译及相关知识。全书分为三部分。部分包含第1~4章,简要介绍机器翻译中的问题、机器翻译技术的实际应用及历史,讨论一直困扰机器翻译领域的译文质量评价问题。第二部分包含第5~9章,解释神经网络、基本机器翻译模型的设计,以及训练和解码的核心算法。第三部分包含第10~17章,既涵盖构建新模型的关键内容,也涉及开放性的挑战问题和一些未解决问题的前沿研究。本书主要面向学习自然语言处理或机器翻译相关课程的本科生和研究生,以及相关研究领域的研究人员。



作者简介

作者简介:
菲利普•科恩(Philipp Koehn)是约翰斯•霍普金斯大学计算机科学系的教授。他是机器翻译领域的领军人物,于2010年出版了教材Statistical Machine Translation(剑桥大学出版社出版,中文版为《统计机器翻译》)。他曾获国际机器翻译协会颁发的荣誉奖,是2013年欧洲专利局欧洲发明家奖的终三名入围者之一。他还活跃在科技产业界,是Omniscien Technology公司的首席科学家、Meta公司的顾问。



译者简介:
张家俊,中国科学院自动化研究所研究员、博士生导师,主要研究方向为机器翻译和自然语言处理,曾获得国家优秀青年科学基金资助,入选中国科协首届青年人才托举工程和北京智源青年科学家。发表CCF-A/B类论文70余篇,出版学术专著2部,6次获得/优秀论文奖,3次被评为IJCAI、ACL和NAACL的杰出SPC和审稿人。曾获得中国中文信息学会钱伟长中文信息处理科学技术奖一等奖、青年创新奖一等奖和北京市科学技术奖一等奖等,曾担任中国中文信息学会机器翻译专委会副主任、青年工作委员会副主任,多次担任ACL/EMNLP/COLING的(资深)领域主席。



赵阳,博士,中国科学院自动化研究所助理研究员。2019年毕业于中国科学院自动化研究所模式识别国家重点实验室,获博士学位。毕业后留所工作,研究方向为自然语言处理与机器翻译,在国内外相关学术会议(AAAI、IJCAI、EMNLP、COLING等)和著名期刊(TASLP、AI、TALLIP等)上发表20余篇论文。担任国际权威期刊(TASLP等)的审稿人,多次担任国际学术会议(ACL、COLING、IJCAI、AAAI)的程序委员会委员,担任COLING-20的出版主席。作为负责人和参与人员,主持和参与国家自然基金、科技部重点研发计划和中国科学院先导计划等多项国家项目。


宗成庆,中国科学院自动化研究所研究员、博士生导师,中国科学院大学岗位教授(A类),中国人工智能学会会士和中国计算机学会会士。主要从事自然语言处理、机器翻译和语言认知计算等研究,主持国家项目10余项,发表论文200余篇,出版《统计自然语言处理》等专著三部和译著一部,是国际计算语言学委员会(ICCL)委员、亚洲自然语言处理学会(AFNLP)主席和中国中文信息学会副理事长。曾任国际一流学术会议ACL 2015程序委员会主席和ACL 2021大会主席。曾荣获国家科技进步奖二等奖和北京市科学技术奖一等奖等,曾获北京市优秀教师、中国科学院优秀导师和宝钢优秀教师奖等若干荣誉,享受国务院特殊津贴。



目录

作者寄语
译者序
前言
阅读指南
部分 绪论
第1章 翻译问题 2
1.1 翻译的目标 2
1.2 歧义性 4
1.2.1 词汇翻译问题 4
1.2.2 短语翻译问题 4
1.2.3 句法翻译问题 5
1.2.4 语义翻译问题 5
1.3 语言学观点 6
1.4 数据视角 9
1.4.1 忠实度 9
1.4.2 流畅度 10
1.4.3 齐普夫定律 11
1.5 实际问题 13
1.5.1 公开的数据 13
1.5.2 评测活动 13
1.5.3 工具集 14
第2章 机器翻译的应用 15
2.1 信息获取 15
2.2 人工辅助翻译 16
2.3 交流 18
2.4 自然语言处理的管道式系统 21
2.5 多模态机器翻译 21
第3章 历史回顾 23
3.1 神经网络 24
3.1.1 生物学启发 24
3.1.2 感知器学习 25
3.1.3 多层网络 25
3.1.4 深度学习 26
3.2 机器翻译 27
3.2.1 密码破译 27
3.2.2 ALPAC报告与后续影响 27
3.2.3 首个商用系统 28
3.2.4 基于中间语言的翻译系统 28
3.2.5 数据驱动的方法 28
3.2.6 开源的研发环境 29
3.2.7 深入用户 30
3.2.8 神经翻译的兴起 30
第4章 评价方法 32
4.1 基于任务的评价 32
4.1.1 真实世界的任务 33
4.1.2 内容理解 33
4.1.3 译员翻译效率 34
4.2 人工评价 35
4.2.1 忠实度和流畅度 35
4.2.2 排序 37
4.2.3 连续分数 38
4.2.4 众包评价 40
4.2.5 人工译文编辑率 41
4.3 自动评价指标 41
4.3.1 BLEU 42
4.3.2 同义词和形态变体 43
4.3.3 TER 44
4.3.4 characTER 45
4.3.5 自举重采样 45
4.4 指标研究 47
4.4.1 关于评价的争论 47
4.4.2 对评价指标的评价 48
4.4.3 自动评价指标缺点的相关证据 49
4.4.4 新的评价指标 50
第二部分 基础
第5章 神经网络 54
5.1 线性模型 54
5.2 多层网络 55
5.3 非线性模型 56
5.4 推断 57
5.5 反向传播训练 59
5.5.1 输出节点权重 60
5.5.2 隐藏层节点权重 61
5.5.3 公式总结 63
5.5.4 权重更新示例 63
5.5.5 验证集 64
5.6 探索并行处理 65
5.6.1 向量和矩阵运算 65
5.6.2 小批量训练 65
5.7 动手实践:使用Python实现神经网络 66
5.7.1 Numpy库中的数据结构和函数 66
5.7.2 前向计算 67
5.7.3 反向计算 67
5.7.4 链式法则的重复使用 68
5.8 扩展阅读 71
第6章 计算图 72
6.1 用计算图描述神经网络 72
6.2 梯度计算 73
6.3 动手实践:深度学习框架 77
6.3.1 利用PyTorch实现前向和反向计算 77
6.3.2 循环训练 79
6.3.3 批训练 80
6.3.4 优化器 81
第7章 神经语言模型 83
7.1 前馈神经语言模型 83
7.1.1 表征单词 84
7.1.2 神经网络架构 85
7.1.3 训练 86
7.2 词嵌入 86
7.3 噪声对比估计 88
7.4 循环神经语言模型 89
7.5 长短时记忆模型 91
7.6 门控循环单元 93
7.7 深度模型 94
7.8 动手实践:PyTorch中的神经语言模型 96
7.8.1 循环神经网络 96
7.8.2 文本处理 97
7.8.3 循环训练 98
7.8.4 建议 99
7.9 扩展阅读 100
第8章 神经翻译模型 101
8.1 编码器–解码器方法 101
8.2 添加对齐模型 102
8.2.1 编码器 102
8.2.2 解码器 103
8.2.3 注意力机制 104
8.3 训练 106
8.4 深度模型 108
8.4.1 解码器 108
8.4.2 编码器 109
8.5 动手实践:利用PyTorch实现神经翻译模型 110
8.5.1 编码器 111
8.5.2 解码器 111
8.5.3 训练 113
8.6 扩展阅读 115
第9章 解码 116
9.1 柱搜索 116
9.2 集成解码 119
9.2.1 生成候选系统 120
9.2.2 融合系统输出 120
9.3 重排序 121
9.3.1 利用从右到左解码的重排序 121
9.3.2 利用反向模型的重排序 122
9.3.3 增加n-best列表的多样性 122
9.3.4 评分组件的权重学习 123
9.4 优化解码 126
9.5 约束解码 127
9.5.1 XML模式 127
9.5.2 网格搜索 127
9.5.3 强制注意力 128
9.5.4 评价 129
9.6 动手实践:Python中的解码 129
9.6.1 假设 129
9.6.2 柱空间 129
9.6.3 搜索 131
9.6.4 输出译文 132
9.7 扩展阅读 133
第三部分 提高
第10章 机器学习技巧 138
10.1 机器学习中的问题 138
10.2 确保随机性 140
10.2.1 打乱训练数据 141
10.2.2 权重初始化 141
10.2.3 标签平滑 142
10.3 调整学习率 142
10.3.1 动量项 142
10.3.2 调整每个参数的学习率 143
10.3.3 批梯度更新 144
10.4 避免局部 145
10.4.1 正则化 145
10.4.2 课程学习 145
10.4.3 drop-out法 146
10.5 处理梯度消失和梯度爆炸问题 147
10.5.1 梯度裁剪 147
10.5.2 层归一化 147
10.5.3 捷径连接和高速连接 148
10.5.4 LSTM和梯度消失 149
10.6 句子级优化 150
10.6.1 小风险训练 150
10.6.2 生成对抗训练 151
10.7 扩展阅读 152
第11章 替代架构 155
11.1 神经网络组件 155
11.1.1 前馈层 155
11.1.2 因子分解 156
11.1.3 基本的数学运算 157
11.1.4 循环神经网络 158
11.1.5 卷积神经网络 159
11.2 注意力模型 160
11.2.1 注意力计算 160
11.2.2 多头注意力 161
11.2.3 细粒度注意力 162
11.2.4 自注意力 162
11.3 卷积机器翻译模型 163
11.4 融合注意力机制的卷积神经网络 165
11.4.1 编码器 165
11.4.2 解码器 166
11.4.3 注意力 167
11.5 自注意力:Transformer 167
11.5.1 自注意力层 167
11.5.2 解码器中的注意力 168
11.6 扩展阅读 171
第12章 重温单词 173
12.1 词嵌

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP