• 语音识别基本法:Kaldi实践与探索
  • 语音识别基本法:Kaldi实践与探索
  • 语音识别基本法:Kaldi实践与探索
  • 语音识别基本法:Kaldi实践与探索
  • 语音识别基本法:Kaldi实践与探索
  • 语音识别基本法:Kaldi实践与探索
  • 语音识别基本法:Kaldi实践与探索
  • 语音识别基本法:Kaldi实践与探索
  • 语音识别基本法:Kaldi实践与探索
21年品牌 40万+商家 超1.5亿件商品

语音识别基本法:Kaldi实践与探索

17 1.9折 89 八五品

仅1件

湖北武汉
认证卖家担保交易快速发货售后保障

作者汤志远

出版社电子工业出版社

出版时间2021-02

版次1

装帧其他

上书时间2024-05-18

揽宝书屋

已实名 进店 收藏店铺

   商品详情   

品相描述:八五品
图书标准信息
  • 作者 汤志远
  • 出版社 电子工业出版社
  • 出版时间 2021-02
  • 版次 1
  • ISBN 9787121404788
  • 定价 89.00元
  • 装帧 其他
  • 开本 其他
  • 纸张 胶版纸
  • 页数 256页
【内容简介】
语音是新一代人机交互的方式,语音识别是实现这一方式的关键环节,也是实现人工智能的基本步骤之一。
  本书结合当下使用广泛的Kaldi工具,对语音识别的基本概念和流程进行了详细的讲解,包括GMM-HMM、DNN-HMM、端到端等常用结构,并探讨了语音识别在实际应用中的问题,包括说话人自适应、噪声对抗与环境鲁棒性、小语种语音识别、关键词识别与嵌入式应用等方面,也对语音技术的相关前沿课题进行了介绍,包括说话人识别、语种识别、情绪识别、语音合成等方向。
  本书的写作以让读者快速、直观地理解概念为目标,只展示*基本的数学公式,同时本书注重理解与实践相结合,在对语音技术各个概念的讲解中都展示了相应的Kaldi语音处理命令,以便让读者进一步融会贯通。
  本书适用于语音识别及相关技术的初学者、在校学生,以及基于Kaldi进行产品研发的同仁,也可以作为语音从业者的参考书目。
【作者简介】
汤志远,中国科学院大学与清华大学联合培养博士,清华博士后。专注于语音技术,研究领域涉及语音识别、声纹识别、语种识别、口语测评等,在国际重要期刊或会议上累计发表论文数十篇。个人主页:http://tangzy.cslt.org。

 

李蓝天,清华大学博士、博士后,专注于机器学习在语音信号处理中的方法研究,研究领域涉及说话人识别、语音识别、音频事件检测、语种识别、情感识别等,现已在国际期刊或会议上发表学术论文50余篇。个人主页:http://lilt.cslt.org。

 

王东,清华大学副研究员,清华大学语音和语言技术中心副主任,英国爱丁堡大学博士,历任Oracle中国软件工程师、IBM中国高级软件工程师、英国爱丁堡大学Marie Curie研究员、法国EURECOM博士后研究员、美国Nuance公司高级研究科学家,在语音领域国际重要期刊或会议上发表论文150余篇,是IEEE高级会员,APSIPA(亚太信号与信息处理协会)SLA(服务等级协议)主席。个人主页:http://wangd.cslt.org。

 

石颖,哈尔滨工业大学在读博士,曾任清华大学语音和语言技术中心语音算法工程师,专注于语音相关技术,研究领域涉及语音识别、小语种语音识别、命令词识别、语音增强。个人主页:http://shiying.cslt.org。

 

蔡云麒,中国科学院物理研究所与美国橡树岭国家实验室联合培养博士研究生,清华大学博士后,目前研究方向为语音领域的机器学习算法研究。在国际期刊和会议上发表论文十多篇。个人主页:http://caiyq.cslt.org。

 

郑方,清华大学研究员、博士生导师,清华大学语音和语言技术中心主任,清华大学人工智能研究院听觉智能研究中心主任,北京信息科学与技术国家研究中心智能科学部常务副主任,得意音通公司创始人。个人主页:http://cslt.riit.tsinghua.edu.cn/~fzheng。
【目录】
目录 

1 语音是什么 2 

1.1 大音希声 2 

1.2 产生语音 4 

1.3 看见语音 5 

1.4 小结 8 

2 语音识别方法 9 

2.1 总体思路 10 

2.2 声学模型GMM-HMM 12 

2.2.1 HMM 12 

2.2.2 GMM 14 

2.2.3 训练 15 

2.3 声学模型DNN-HMM 16 

2.4 语言模型 18 

2.4.1 N-Gram 18 

2.4.2 RNN语言模型 18 

2.5 解码器 20 

2.6 端到端结构 22 

2.6.1 CTC 23 

2.6.2 RNN-T 26 

2.6.3 Attention 27 

2.6.4 Self-Attention 29 

2.6.5 CTC Attension 31 

2.7 开源工具和硬件平台 32 

2.7.1 深度学习平台 32 

2.7.2 语音识别工具 33 

2.7.3 硬件加速 34 

2.8 小结 36 

3 完整的语音识别实验 37 

3.1 语音识别实验的步骤 38 

3.2 语音识别实验的运行 46 

3.3 其他语音任务案例 47 

3.4 小结 47 

4 前端处理 48 

4.1 数据准备 48 

4.2 声学特征提取 52 

4.2.1 预加重(Pre-Emphasis) 54 

4.2.2 加窗(Windowing) 54 

4.2.3 离散傅里叶变换(DFT) 55 

4.2.4 FBank特征 56 

4.2.5 MFCC特征 57 

4.3 小结 58 

5 训练与解码 59 

5.1 GMM-HMM基本流程 60 

5.1.1 训练 60 

5.1.2 解码 61 

5.1.3 强制对齐 62 

5.2 DNN-HMM基本流程 63 

5.3 DNN配置详解 64 

5.3.1 component和component-node 65 

5.3.2 属性与描述符 66 

5.3.3 不同组件的使用方法 66 

5.3.4 LSTM配置范例 76 

5.4 小结 81 

6 说话人自适应 84 

6.1 什么是说话人自适应 84 

6.2 特征域自适应与声道长度规整 85 

6.3 声学模型自适应:HMM-GMM系统 87 

6.3.1 基于MAP的自适应方法 88 

6.3.2 基于MLLR的自适应方法 91 

6.4 声学模型自适应:DNN系统 93 

6.4.1 模型参数自适应学习 93 

6.4.2 基于说话人向量的条件学习 94 

6.5 领域自适应 95 

6.6 小结 95 

7 噪声对抗与环境鲁棒性 97 

7.1 环境鲁棒性简介 97 

7.2 前端信号处理方法 98 

7.2.1 语音增强方法 99 

7.2.2 特征域补偿方法 103 

7.2.3 基于DNN的特征映射 106 

7.3 后端模型增强方法 108 

7.3.1 简单模型增强方法 108 

7.3.2 模型自适应方法 109 

7.3.3 多场景学习和数据增强方法 109 

7.4 小结 110 

8 小语种语音识别 111 

8.1 小语种语音识别面临的主要困难 112 

8.2 基于音素共享的小语种语音识别 113 

8.3 基于参数共享的小语种语音识别方法 118 

8.4 其他小语种语音识别方法 121 

8.4.1 Grapheme 建模 121 

8.4.2 网络结构与训练方法 121 

8.4.3 数据增强 122 

8.5 小语种语音识别实践 122 

8.5.1 音频数据采集 122 

8.5.2 文本数据采集 122 

8.5.3 文本正规化 123 

8.5.4 发音词典设计 123 

8.6 小结 123 

9 关键词识别与嵌入式应用 125 

9.1 基本概念 125 

9.2 评价指标 126 

9.3 实现方法 129 

9.3.1 总体框架 129 

9.3.2 基于LVCSR的KWS系统 130 

9.3.3 基于示例的KWS 132 

9.3.4 端到端KWS 133 

9.3.5 滑动窗口 133 

9.4 嵌入式应用 134 

9.4.1 模型压缩 134 

9.4.2 迁移学习 136 

9.4.3 网络结构搜索与设计 137 

9.5 小结 137 

10 说话人识别 140 

10.1 什么是说话人识别 140 

10.1.1 基本概念 140 

10.1.2 技术难点 143 

10.1.3 发展历史 143 

10.2 基于知识驱动的特征设计 144 

10.3 基于线性高斯的统计模型 147 

10.3.1 高斯混合模型-通用背景模型 147 

10.3.2 因子分析 150 

10.4 基于数据驱动的特征学习 154 

10.4.1 模型结构 156 

10.4.2 训练策略 157 

10.4.3 多任务学习 157 

10.5 基于端到端的识别模型 158 

10.6 小结 160 

11 语种识别 161 

11.1 什么是语种识别 161 

11.2 语言的区分性特征 163 

11.3 统计模型方法 165 

11.3.1 基于声学特征的识别方法 165 

11.3.2 基于发音单元的语种识别方法 167 

11.4 深度学习方法 170 

11.4.1 基于DNN的统计模型方法 170 

11.4.2 基于DNN的端到端建模 172 

11.4.3 基于DNN的语言嵌入 176 

11.5 Kaldi中的语种识别 178 

11.6 小结 180 

12 语音情绪识别 182 

12.1 什么是语音情绪识别 182 

12.2 语音情绪模型 185 

12.2.1 离散情绪模型 186 

12.2.2 连续情绪模型 186 

12.3 语音情绪特征提取 187 

12.3.1 语音情绪识别中的典型特征 187 

12.3.2 局部特征与全局特征 190 

12.4 语音情绪建模 192 

12.4.1 离散情绪模型 192 

12.4.2 连续情绪模型 195 

12.5 深度学习方法 196 

12.5.1 基础DNN方法 196 

12.5.2 特征学习 198 

12.5.3 迁移学习 200 

12.5.4 多任务学习 200 

12.6 小结 201 

13 语音合成 203 

13.1 激励-响应模型 204 

13.2 参数合成 207 

13.3 拼接合成 208 

13.4 统计模型合成 210 

13.5 神经模型合成 212 

13.6 基于注意力机制的合成系统 214 

13.7 小结 216 

参考文献 217 

索引 243
点击展开 点击收起

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP