• 基于深度学习的自然语言处理和语音识别[美]乌黛·卡马特(Uday Kamath), [美]约翰·刘(John Liu), [美]詹姆斯·惠特克(James Whitaker)机械工业
  • 基于深度学习的自然语言处理和语音识别[美]乌黛·卡马特(Uday Kamath), [美]约翰·刘(John Liu), [美]詹姆斯·惠特克(James Whitaker)机械工业
  • 基于深度学习的自然语言处理和语音识别[美]乌黛·卡马特(Uday Kamath), [美]约翰·刘(John Liu), [美]詹姆斯·惠特克(James Whitaker)机械工业
  • 基于深度学习的自然语言处理和语音识别[美]乌黛·卡马特(Uday Kamath), [美]约翰·刘(John Liu), [美]詹姆斯·惠特克(James Whitaker)机械工业
  • 基于深度学习的自然语言处理和语音识别[美]乌黛·卡马特(Uday Kamath), [美]约翰·刘(John Liu), [美]詹姆斯·惠特克(James Whitaker)机械工业
  • 基于深度学习的自然语言处理和语音识别[美]乌黛·卡马特(Uday Kamath), [美]约翰·刘(John Liu), [美]詹姆斯·惠特克(James Whitaker)机械工业
21年品牌 40万+商家 超1.5亿件商品

基于深度学习的自然语言处理和语音识别[美]乌黛·卡马特(Uday Kamath), [美]约翰·刘(John Liu), [美]詹姆斯·惠特克(James Whitaker)机械工业

124.88 7.9折 159 全新

库存3件

北京朝阳
认证卖家担保交易快速发货售后保障

作者[美]乌黛·卡马特(Uday Kamath), [美]约翰·刘(John Liu), [美]詹姆斯·惠特克(James Whitaker)

出版社机械工业

ISBN9787111740933

出版时间2024-01

装帧平装

开本其他

定价159元

货号31940590

上书时间2024-07-18

长长久久书店

三年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介
刘峤<br/>电子科技大学计算机学院教授、博士生导师,四川省天府科技领军人才,国家自然科学基金联合基金会评专家,高速铁路运行环境智能监控工程研究中心副主任。长期致力于人工智能理论与应用创新研究,主持国家自然科学基金企业联合基金重点项目、国家重点研发计划项目及课题等20余项。发表学术论文90余篇,出版国家级规划教材和学术著作3部。作为第一完成人获四川省科技进步一等奖、中国安全生产协会科技进步一等奖各一项。<br/>蓝天<br/>电子科技大学研究员、博士生导师,四川省学术和技术带头人后备人选。主要研究方向为机器学习<br/>与模式识别,先后主持和主研包括NSFC联合基金重点、国家重点研发计划在内的各类科研项目10余项,发表高水平期刊和会议论文50余篇,获得国家发明专利授权9项,获得四川省科技进步一等奖。长期从事软件工程和数据分析等课程的教学工作,主持获评四川省一流本科课程。<br/>任亚洲<br/>电子科技大学副教授,CCF高级会员,四川省人工智能学会理事。主要研究方向为人工智能(多视<br/>图学习、图学习、无监督学习等)与智慧医疗,主持和参与NSFC青年基金、NSFC重点项目、科技创新2030重大项目、四川省重大科技项目等多个项目,发表高水平期刊和会议论文100余篇(其中CCFA类/SCI一区论文30多篇)。<br/>徐增林<br/>哈尔滨工业大学(深圳)教授、博士生导师,国家自然基金评审专家。主要研究方向为机器学习及其在社会网络分析、互联网、计算生物学、信息安全等方面的应用。在IEEETPAMI、IEEETNN等期刊和NIPS、ICML、IJCAI、AAAI等重要会议发表论文50多篇,出版专著2部。获得2015年AAAI大会最佳学生论文奖提名,ACML2016最佳学生论文奖亚军(RunnerUp)。曾于2012年在多伦多召开的国际人工智能大会(AAAI)上做教学报告。

目录
目?录<br />Deep Learning for NLP and Speech Recognition<br /><br />推荐序一<br />推荐序二<br />推荐序三<br />译者序<br />前言<br />致谢<br />符号约定<br /><br />第一部分?机器学习、自然语言处理与语音介绍<br /><br />第1章 引言2<br />1.1?机器学习3<br />1.1.1?监督学习3<br />1.1.2?无监督学习4<br />1.1.3?半监督学习和主动学习4<br />1.1.4?迁移学习和多任务学习4<br />1.1.5?强化学习4<br />1.2?历史背景4<br />1.2.1?深度学习简史5<br />1.2.2?自然语言处理简史7<br />1.2.3?自动语音识别简史10<br />1.3?为实践者提供的工具、库、数据<br />集和资源12<br />1.3.1?深度学习12<br />1.3.2?自然语言处理13<br />1.3.3?语音识别13<br />1.3.4?书籍14<br />1.3.5?在线课程与资源14<br />1.3.6?数据集15<br />1.4?案例研究和实现细节17<br />参考文献18<br />第2章 机器学习基础29<br />2.1?章节简介29<br />2.2?监督学习:框架和正式定义29<br />2.2.1?输入空间和样本29<br />2.2.2?目标函数和标签30<br />2.2.3?训练和预测30<br />2.3?学习过程31<br />2.4?机器学习理论32<br />2.4.1?通过Vapnik-Chervonenkis分析<br />进行“泛化-近似”的权衡32<br />2.4.2?通过偏差-方差分析进行“泛<br />化-近似”的权衡33<br />2.4.3?模型性能和评估指标34<br />2.4.4?模型验证36<br />2.4.5?模型估计和对比38<br />2.4.6?机器学习中的实践经验39<br />2.5?线性算法40<br />2.5.1?线性回归40<br />2.5.2?感知机41<br />2.5.3?正则化42<br />2.5.4?逻辑回归43<br />2.5.5?生成式分类器46<br />2.5.6?线性算法中的实践经验47<br />2.6?非线性算法47<br />2.6.1?支持向量机48<br />2.6.2?其他非线性算法49<br />2.7?特征的转换、选择和降维50<br />2.7.1?特征转换50<br />2.7.2?特征选择和降维50<br />2.8?序列数据和建模51<br />2.8.1?离散时间马尔可夫链51<br />2.8.2判别式方法:隐马尔可夫<br />模型52<br />2.8.3?生成式方法:条件随机场53<br />2.9?案例研究55<br />2.9.1?软件工具和资源库55<br />2.9.2?探索性数据分析56<br />2.9.3?模型训练和超参数搜索56<br />2.9.4?最终训练和测试模型60<br />2.9.5?留给读者的练习60<br />参考文献62<br />第3章 文本和语音处理基础63<br />3.1?章节简介63<br />3.1.1?计算语言学63<br />3.1.2?自然语言63<br />3.1.3?语言模型64<br />3.2?词法分析65<br />3.2.1?词干化65<br />3.2.2?词元化65<br />3.3?词汇表示66<br />3.3.1?标记66<br />3.3.2?停用词66<br />3.3.3?n-gram67<br />3.3.4?文档67<br />3.4?句法表示69<br />3.4.1?词性69<br />3.4.2?依存分析70<br />3.5?语义表示71<br />3.5.1?命名实体识别72<br />3.5.2?关系抽取72<br />3.5.3?事件抽取73<br />3.5.4?语义角色标注73<br />3.6?语篇表示73<br />3.6.1?衔接性73<br />3.6.2?连贯性74<br />3.6.3?回指/预指74<br />3.6.4?局部和全局共指74<br />3.7?语言模型74<br />3.7.1?n-gram模型74<br />3.7.2?拉普拉斯平滑75<br />3.7.3?集外词75<br />3.7.4?困惑度76<br />3.8?文本分类76<br />3.8.1?机器学习方法76<br />3.8.2?情感分析77<br />3.8.3?蕴含79<br />3.9?文本聚类79<br />3.9.1?词汇链79<br />3.9.2?主题建模80<br />3.10?机器翻译80<br />3.10.1?基于字典的翻译80<br />3.10.2?基于统计的翻译81<br />3.11?问答系统81<br />3.11.1?基于信息检索的问答82<br />3.11.2?基于知识的问答82<br />3.11.3?自动推理83<br />3.12?自动摘要83<br />3.12.1?基于提取的自动摘要83<br />3.12.2?基于抽象的自动摘要83<br />3.13?自动语音识别84<br />3.14?案例研究85<br />3.14.1?软件工具和库85<br />3.14.2?探索性数据分析86<br />3.14.3?文本聚类87<br />3.14.4?主题建模90<br />3.14.5?文本分类92<br />3.14.6?留给读者的练习94<br />参考文献94<br /><br />第二部分?深度学习介绍<br /><br />第4章 深度学习基础100<br />4.1?章节简介100<br />4.2?感知机算法详解101<br />4.2.1?偏置101<br />4.2.2?线性和非线性可分103<br />4.3?多层感知机(神经网络)103<br />4.3.1?训练MLP104<br />4.3.2?前向传播104<br />4.3.3?误差计算105<br />4.3.4?反向传播105<br />4.3.5?参数更新106<br />4.3.6?全局逼近定理107<br />4.4?深度学习107<br />4.4.1?激活函数108<br />4.4.2?损失函数112<br />4.4.3?优化方法112<br />4.5?模型训练114<br />4.5.1?提前停止114<br />4.5.2?梯度消失/爆炸115<br />4.5.3?全批量和小批量梯度下降115<br />4.5.4?正则化115<br />4.5.5?超参数选择117<br />4.5.6?数据可用性和质量118<br />4.5.7?讨论119<br />4.6?无监督深度学习120<br />4.6.1?基于能量的模型120<br />4.6.2?受限玻耳兹曼机120<br />4.6.3?深度置信网络121<br />4.6.4?自编码器121<br />4.6.5?稀疏编码124<br />4.6.6?生成对抗网络124<br />4.7?关于框架的思考125<br />4.7.1?层抽象125<br />4.7.2?计算图125<br />4.7.3?反向模式自动微分125<br />4.7.4?静态计算图126<br />4.7.5?动态计算图126<br />4.8?案例研究127<br />4.8.1?软件工具和库127<br />4.8.2?探索性数据分析127<br />4.8.3?监督学习128<br />4.8.4?无监督学习132<br />4.8.5?使用无监督特征进行分类134<br />4.8.6?结果135<br />4.8.7?留给读者的练习136<br />参考文献136<br />第5章 分布式表示139<br />5.1?章节简介139<br />5.2?分布式语义139<br />5.2.1?向量空间模型139<br />5.2.2?词表示140<br />5.2.3?神经语言模型140<br />5.2.4?word2vec142<br />5.2.5?GloVe149<br />5.2.6?谱词向量150<br />5.2.7?多语言词向量150<br />5.3?词向量的局限性151<br />5.3.1?集外词151<br />5.3.2?反义词151<br />5.3.3?多义词152<br />5.3.4?偏见154<br />5.3.5?其他限制154<br />5.4?进阶内容154<br />5.4.1?子词向量154<br />5.4.2?词向量量化155<br />5.4.3?句子向量156<br />5.4.4?概念向量156<br />5.4.5?语义词典的更新157<br />5.4.6?高斯嵌入158<br />5.4.7?双曲嵌入159<br />5.5?应用160<br />5.5.1?分类160<br />5.5.2?文档聚类161<br />5.5.3?语言模型161<br />5.5.4?文本异常检测162<br />5.5.5?语境化向量162<br />5.6?案例研究163<br />5.6.1?软件工具和库163<br />5.6.2?探索性数据分析163<br />5.6.3?学习词向量165<br />5.6.4?文档聚类173<br />5.6.5?词义消歧174<br />5.6.6?留给读者的练习176<br />参考文献176<br />第6章 卷积神经网络179<br />6.1?章节简介179<br />6.2?卷积神经网络的基本构建模块179<br />6.2.1?线性时不变系统中的卷积和<br />相关性179<br />6.2.2?局部连接或稀疏交互180<br />6.2.3?参数共享181<br />6.2.4?空间排列181<br />6.2.5?使用非线性的检测器183<br />6.2.6?池化和下采样184<br />6.3?卷积神经网络中的前向和反向传播185<br />6.3.1?关于权重的梯度185<br />6.3.2?关于输入的梯度186<br />6.3.3?最大池化层187<br />6.4?文本输入和卷积神经网络187<br />6.4.1?词向量和卷积神经网络187<br />6.4.2?基于字符的表示和卷积神经网络190<br />6.5?经典卷积神经网络架构191<br />6.5.1?LeNet-5191<br />6.5.2?AlexNet192<br />6.5.3?VGG-16193<br />6.6?现代卷积神经网络架构194<br />6.6.1?堆叠或分层卷积神经网络194<br />6.6.2?空洞卷积神经网络194<br />6.6.3?Inception网络195<br />6.6.4?其他卷积神经网络结构197<br />6.7?卷积神经网络在自然语言处理中<br />的应用199<br />6.7.1?文本分类199<br />6.7.2?文本聚类和主题挖掘199<br />6.7.3?语法分析200<br />6.7.4?信息抽取200<br />6.7.5?机器翻译200<br />6.7.6?文本摘要201<br />6.7.7?问答系统201<br />6.8?卷积快速算法201<br />6.8.1?卷积定理和快速傅里叶变换201<br />6.8.2?快速滤波算法202<br />6.9?案例研究203<br />6.9.1?软件工具和库204<br />6.9.2?探索性数据分析204<br />6.9.3?数据预处理和数据拆分205<br />6.9.4?卷积神经网络模型实验206<br />6.9.5?了解和改进模型209<br />6.9.6?留给读者的练习211<br />6.10?讨论211<br />参考文献211<br />第7章 循环神经网络215<br />7.1?章节简介215<br />7.2?循环神经网络的基本构建模块215<br />7.2.1?循环与记忆215<br />7.2.2?PyTorch示例216<br />7.3?循环神经网络及其特性217<br />7.3.1?循环神经网络中的前向和反向<br />传播217<br />7.3.2?梯度消失问题和正则化221<br />7.4?深度循环神经网络架构223<br />7.4.1?深度循环网络223<br />7.4.2?残差LSTM223<br />7.4.3?循环高速网络224<br />7.4.4?双向循环神经网络224<br />7.4.5?SRU和Quasi-RNN224<br />7.4.6?递归神经网络225<br />7.5?循环神经网络的扩展226<br />7.5.1?序列到序列方法226<br />7.5.2?注意力机制227<br />7.5.3?指针网络228<br />7.5.4?transformer网络229<br />7.6?循环神经网络在自然语言处理中<br />的应用229<br />7.6.1?文本分类230<br />7.6.2?词性标注和命名实体识别230<br />7.6.3?依存分析230<br />7.6.4?主题建模和摘要230<br />7.6.5?问答系统231<br />7.6.6?多模态231<br />7.6.7?语言模型231<br />7.6.8?神经机器翻译232<br />7.6.9?预测/采样输出234<br />7.7?案例研究236<br />7.7.1?软件工具和库236<br />7.7.2?探索性数据分析236<br />7.7.3?模型训练241<br />7.7.4?结果243<br />7.7.5?留给读者的练习247<br />7.8?讨论247<br />7.8.1?记忆或泛化247<br />7.8.2?RNN的未来248<br />参考文献248<br />第8章 自动语音识别252<br />8.1?章节简介252

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP