• 神经机器翻译
21年品牌 40万+商家 超1.5亿件商品

神经机器翻译

全新正版 极速发货

101.7 7.3折 139 全新

库存2件

浙江嘉兴
认证卖家担保交易快速发货售后保障

作者(德)菲利普·科恩|责编:王春华//孙榕舒|译者:张家俊//赵阳//宗成庆

出版社机械工业

ISBN9787111701019

出版时间2022-03

装帧平装

开本其他

定价139元

货号31408435

上书时间2024-10-29

學源图书专营店

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
目录
作者寄语<br/>译者序<br/>前言<br/>阅读指南<br/>第一部分 绪论<br/>第1章 翻译问题2<br/>1.1 翻译的目标2<br/>1.2 歧义性4<br/>1.2.1 词汇翻译问题4<br/>1.2.2 短语翻译问题4<br/>1.2.3 句法翻译问题5<br/>1.2.4 语义翻译问题5<br/>1.3 语言学观点6<br/>1.4 数据视角9<br/>1.4.1 忠实度9<br/>1.4.2 流畅度10<br/>1.4.3 齐普夫定律11<br/>1.5 实际问题13<br/>1.5.1 公开的数据13<br/>1.5.2 评测活动13<br/>1.5.3 工具集14<br/>第2章 机器翻译的应用15<br/>2.1 信息获取15<br/>2.2 人工辅助翻译16<br/>2.3 交流18<br/>2.4 自然语言处理的管道式系统21<br/>2.5 多模态机器翻译21<br/>第3章 历史回顾23<br/>3.1 神经网络24<br/>3.1.1 生物学启发24<br/>3.1.2 感知器学习25<br/>3.1.3 多层网络25<br/>3.1.4 深度学习26<br/>3.2 机器翻译27<br/>3.2.1 密码破译27<br/>3.2.2 ALPAC报告与后续影响27<br/>3.2.3 首个商用系统28<br/>3.2.4 基于中间语言的翻译系统28<br/>3.2.5 数据驱动的方法28<br/>3.2.6 开源的研发环境29<br/>3.2.7 深入用户30<br/>3.2.8 神经翻译的兴起30<br/>第4章 评价方法32<br/>4.1 基于任务的评价32<br/>4.1.1 真实世界的任务33<br/>4.1.2 内容理解33<br/>4.1.3 译员翻译效率34<br/>4.2 人工评价35<br/>4.2.1 忠实度和流畅度35<br/>4.2.2 排序37<br/>4.2.3 连续分数38<br/>4.2.4 众包评价40<br/>4.2.5 人工译文编辑率41<br/>4.3 自动评价指标41<br/>4.3.1 BLEU42<br/>4.3.2 同义词和形态变体43<br/>4.3.3 TER44<br/>4.3.4 characTER45<br/>4.3.5 自举重采样45<br/>4.4 指标研究47<br/>4.4.1 关于评价的争论47<br/>4.4.2 对评价指标的评价48<br/>4.4.3 自动评价指标缺点的相关证据49<br/>4.4.4 新的评价指标50<br/>第二部分 基础<br/>第5章 神经网络54<br/>5.1 线性模型54<br/>5.2 多层网络55<br/>5.3 非线性模型56<br/>5.4 推断57<br/>5.5 反向传播训练59<br/>5.5.1 输出节点权重60<br/>5.5.2 隐藏层节点权重61<br/>5.5.3 公式总结63<br/>5.5.4 权重更新示例63<br/>5.5.5 验证集64<br/>5.6 探索并行处理65<br/>5.6.1 向量和矩阵运算65<br/>5.6.2 小批量训练65<br/>5.7 动手实践:使用Python实现神经网络66<br/>5.7.1 Numpy库中的数据结构和函数66<br/>5.7.2 前向计算67<br/>5.7.3 反向计算67<br/>5.7.4 链式法则的重复使用68<br/>5.8 扩展阅读71<br/>第6章 计算图72<br/>6.1 用计算图描述神经网络72<br/>6.2 梯度计算73<br/>6.3 动手实践:深度学习框架77<br/>6.3.1 利用PyTorch实现前向和反向计算77<br/>6.3.2 循环训练79<br/>6.3.3 批训练80<br/>6.3.4 优化器81<br/>第7章 神经语言模型83<br/>7.1 前馈神经语言模型83<br/>7.1.1 表征单词84<br/>7.1.2 神经网络架构85<br/>7.1.3 训练86<br/>7.2 词嵌入86<br/>7.3 噪声对比估计88<br/>7.4 循环神经语言模型89<br/>7.5 长短时记忆模型91<br/>7.6 门控循环单元93<br/>7.7 深度模型94<br/>7.8 动手实践:PyTorch中的神经语言模型96<br/>7.8.1 循环神经网络96<br/>7.8.2 文本处理97<br/>7.8.3 循环训练98<br/>7.8.4 建议99<br/>7.9 扩展阅读100<br/>第8章 神经翻译模型101<br/>8.1 编码器–解码器方法101<br/>8.2 添加对齐模型102<br/>8.2.1 编码器102<br/>8.2.2 解码器103<br/>8.2.3 注意力机制104<br/>8.3 训练106<br/>8.4 深度模型108<br/>8.4.1 解码器108<br/>8.4.2 编码器109<br/>8.5 动手实践:利用PyTorch实现神经翻译模型110<br/>8.5.1 编码器111<br/>8.5.2 解码器111<br/>8.5.3 训练113<br/>8.6 扩展阅读115<br/>第9章 解码116<br/>9.1 柱搜索116<br/>9.2 集成解码119<br/>9.2.1 生成候选系统120<br/>9.2.2 融合系统输出120<br/>9.3 重排序121<br/>9.3.1 利用从右到左解码的重排序121<br/>9.3.2 利用反向模型的重排序122<br/>9.3.3 增加n-best列表的多样性122<br/>9.3.4 评分组件的权重学习123<br/>9.4 优化解码126<br/>9.5 约束解码127<br/>9.5.1 XML模式127<br/>9.5.2 网格搜索127<br/>9.5.3 强制注意力128<br/>9.5.4 评价129<br/>9.6 动手实践:Python中的解码129<br/>9.6.1 假设129<br/>9.6.2 柱空间129<br/>9.6.3 搜索131<br/>9.6.4 输出最佳译文132<br/>9.7 扩展阅读133<br/>第三部分 提高<br/>第10章 机器学习技巧138<br/>10.1 机器学习中的问题138<br/>10.2 确保随机性140<br/>10.2.1 打乱训练数据141<br/>10.2.2 权重初始化141<br/>10.2.3 标签平滑142<br/>10.3 调整学习率142<br/>10.3.1 动量项142<br/>10.3.2 调整每个参数的学习率143<br/>10.3.3 批梯度更新144<br/>10.4 避免局部最优145<br/>10.4.1 正则化145<br/>10.4.2 课程学习145<br/>10.4.3 drop-out法146<br/>10.5 处理梯度消失和梯度爆炸问题147<br/>10.5.1 梯度裁剪147<br/>10.5.2 层归一化147<br/>10.5.3 捷径连接和高速连接148<br/>10.5.4 LSTM和梯度消失149<br/>10.6 句子级优化150<br/>10.6.1 最小风险训练150<br/>10.6.2 生成对抗训练151<br/>10.7 扩展阅读152<br/>第11章 替代架构155<br/>11.1 神经网络组件155<br/>11.1.1 前馈层155<br/>11.1.2 因子分解156<br/>11.1.3 基本的数学运算157<br/>11.1.4 循环神经网络158<br/>11.1.5 卷积神经网络159<br/>11.2 注意力模型160<br/>11.2.1 注意力计算160<br/>11.2.2 多头注意力161<br/>11.2.3 细粒度注意力162<br/>11.2.4 自注意力162<br/>11.3 卷积机器翻译模型163<br/>11.4 融合注意力机制的卷积神经网络165<br/>11.4.1 编码器165<br/>11.4.2 解码器166<br/>11.4.3 注意力167<br/>11.5 自注意力:Transformer167<br/>11.5.1 自注意力层167<br/>11.5.2 解码器中的注意力168<br/>11.6 扩展阅读171<br/>第12章 重温单词173<br/>12.1 词嵌入173<br/>12.1.1 潜在语义分析174<br/>12.1.2 连续词袋模型175<br/>12.1.3 Skip Gram176<br/>12.1.4 GloVe176<br/>12.1.5 ELMo177<br/>12.1.6 BERT178<br/>12.2 多语言词嵌入178<br/>12.2.1 特定语言词嵌入之间的映射179<br/>12.2.2 语言无关的词嵌入180<br/>12.2.3 仅使用单语数据180<br/>12.3 大词汇表182<br/>12.3.1 低频词的特殊处理182<br/>12.3.2 字节对编码算法183<br/>12.3.3 句子片段化算法184<br/>12.3.4 期望最大化训练185<br/>12.3.5 子词正则化185<br/>12.4 基于字符的模型186<br/>12.4.1 字符序列模型186<br/>12.4.2 基于字符的单词表示模型186<br/>12.4.3 集成基于字符的模型188<br/>12.5 扩展阅读189<br/>第13章 领域自适应195<br/>13.1 领域195<br/>13.1.1 语料库之间的差异196<br/>13.1.2 多领域场景197<br/>13.1.3 领域内与领域外198<br/>13.1.4 自适应效应198<br/>13.1.5 合理的警告199<br/>13.2 混合模型199<br/>13.2.1 数据插值199<br/>13.2.2 模型插值200<br/>13.2.3 领域感知训练201<br/>13.2.4 主题模型202<br/>13.3 欠采样204<br/>13.3.1 Moore-Lewis:语言模型交叉熵204<br/>13.3.2 基于覆盖范围的方法205<br/>13.3.3 样本加权206<br/>13.4 微调206<br/>13.4.1 约束更新207<br/>13.4.2 文档级自适应208<br/>13.4.3 句子级自适应209<br/>13.4.4 课程训练210<br/>13.5 扩展阅读210<br/>第14章 超越平行语料库214<br/>14.1 使用单语数据215<br/>14.1.1 增加语言模型215<br/>14.1.2 回译216<br/>14.1.3 迭代回译217<br/>14.1.4 往返训练217<br/>14.2 多种语言对218<br/>14.2.1 多种输入语言219<br/>14.2.2 多种输出语言219<br/>14.2.3 共享模块220<br/>14.3 训练相关任务221<br/>14.3.1 预训练词嵌入221<br/>14.3.2 预训练编码器和解码器221<br/>14.3.3 多任务训练222<br/>14.4 扩展阅读222<br/>第15章 语言学结构228<br/>15.1 有指导的对齐训练228<br/>15.2 建模覆盖度230<br/>15.2.1 在推断过程中约束覆盖度230<br/>15.2.2 覆盖度模型231<br/>15.2.3 繁衍率232<br/>15.2.4 特征工程与机器学习232<br/>15.3 添加语言学标注233<br/>15.3.1 输入句子的语言学标注233<br/>15.3.2 输出句子的语言学标注234<br/>15.3.3 语言学结构化的模型235<br/>15.4 扩展阅读236<br/>第16章 当前挑战238<br/>16.1 领域不匹配238<br/>16.2 训练数据规模240<br/>16.3 稀有词241<br/>16.4 噪声数据243<br/>16.4.1 真实世界中的噪声243<br/>16.4.2 合成噪声245<br/>16.4.3 噪声对翻译质量的影响246<br/>16.5 柱搜索248<br/>16.6 词对齐250<br/>16.7 扩展阅读251<br/>第17章 分析与可视化253<br/>17.1 错误分析253<br/>17.1.1 神经机器翻译的典型错误253<br/>17.1.2 语言学错误类型255<br/>17.1.3 真实世界中的研究案例256<br/>17.1.4 目标测试集257<br/>17.1.5 合成语言259<br/>17.2 可视化259<br/>17.2.1 词嵌入260<br/>17.2.2 编码器状态:词义261<br/>17.2.3 注意力机制262<br/>17.2.4 多头注意力机制263<br/>17.2.5 语言模型预测中的记忆264<br/>17.2.6 解码器状态266<br/>17.2.7 柱搜索266<br/>17.3 探测向量表示267<br/>17.3.1 分类器方法267<br/>17.3.2 实验发现268<br/>17.4 分析神经元269<br/>17.4.1 认知理论269<br/>17.4.2 个体神经元269<br/>17.4.3 揭示神经元271<br/>17.5 追溯模型决策过程271<br/>17.5.1 层级间相关性传递271<br/>17.5.2 相关性传递在机器翻译中的应用273<br/>17.5.3 显著性计算274<br/>17.6 扩展阅读275<br/>参考文献279

内容摘要
本书介绍了机器翻译和评估的挑战——包括历史、语言和应用环境,然后提出了用于自然语言应用的核心深度学习方法。内含Python代码示例,为读者提供理解和实现自己的机器翻译系统的实际蓝图。本书还提供了广泛的机器学习技巧,涉及的问题包括处理各种形式的数据、模型的增强、当前的挑战以及方法分析和可视化。本书包含机器翻译领域的前沿研究,适用于该领域的本科和研究生,以及对神经方法在更广泛的人类语言处理领域的其他应用感兴趣的研究人员,也可以作为开发人员的重要参考。

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP