现代自然语言生成
正版新书 新华官方库房直发 可开电子发票
¥
55.3
7.0折
¥
79
全新
仅1件
作者黄民烈,黄斐,朱小燕
出版社电子工业出版社
ISBN9787121402494
出版时间2021-01
版次1
装帧平装
开本16开
纸张胶版纸
页数272页
字数292千字
定价79元
货号SC:9787121402494
上书时间2024-09-05
商品详情
- 品相描述:全新
-
全新正版 提供发票
- 商品描述
-
内容简介:
本书总结了以神经网络为代表的现代自然语言生成的基本思想、模型和框架。本书共12章,首先介绍了自然语言生成的研究背景、从统计语言模型到神经网络语言建模的过程,以及自然语言建模的思想与技术演化过程;其次从基础模型角度介绍了基于循环神经网络、基于Transformer 的语言生成模型,从优化方法角度介绍了基于变分自编码器、基于生成式对抗网络的语言生成模型,从生成方式角度介绍了非自回归语言生成的基本模型和框架;然后介绍了融合规划的自然语言生成、融合知识的自然语言生成、常见的自然语言生成任务和数据资源,以及自然语言生成的评价方法;最后总结了本书的写作思路及对自然语言生成领域未来发展趋势的展望。本书可作为高等院校计算机科学与技术、人工智能、大数据等相关专业高年级本科生、研究生相关课程的教材,也适合从事自然语言处理研究、应用实践的科研人员和工程技术人员参考。
目录:
第1章自然语言生成的研究背景.1
1.1自然语言生成的背景概述.1
1.2基本定义与研究范畴.2
1.3自然语言生成与自然语言理解.3
1.4传统的模块化生成框架.4
1.5端到端的自然语言生成框架.7
1.6典型的自然语言生成任务.9
1.7自然语言生成的可控性.12
1.8本书结构.14
第2章从统计语言模型到神经网络语言建模.15
2.1统计语言模型.15
2.1.1基本原理.15
2.1.2平滑技术.17
2.1.3语言模型评价.19
2.1.4统计语言模型的缺点.20
2.2神经网络语言模型.21
2.2.1前馈神经网络语言模型.21
2.2.2基于循环神经网络的神经语言模型.24
2.2.3基于Transformer的神经语言模型.24
2.3静态词向量模型.26
2.3.1分布假设与分布式表示.26
2.3.2词向量模型CBOW和Skip-gram.27
2.3.3词向量模型训练优化:负采样.30
2.3.4词向量模型训练优化:层次化softmax.31
2.3.5静态词向量的缺陷.32
2.4语境化语言表示模型.33
2.4.1ELMo.34
2.4.2BERT.36
2.4.3XLNet.38
2.5本章小结.39
第3章基于RNN的语言生成模型.41
3.1RNN的基本原理.41
3.2RNN的训练算法.42
3.3长短期记忆神经网络与门控循环单元.45
...
— 没有更多了 —
全新正版 提供发票
以下为对购买帮助不大的评价