• 深度学习自然语言处理实战
21年品牌 40万+商家 超1.5亿件商品

深度学习自然语言处理实战

人工智能 自然语言和深度学习、神经网络、seq2seq、注意力机制、预训练模型全覆盖 新华书店全新正版书籍

40.92 6.8折 59.9 全新

库存6件

江苏无锡
认证卖家担保交易快速发货售后保障

作者开课吧、张楠、苏南、王贵阳 著

出版社机械工业出版社

出版时间2020-09

装帧平装

货号1202118416

上书时间2023-02-11

新华文轩网络书店

十四年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
新华文轩网络书店 全新正版书籍
商品描述
本书介绍了当前NLP的研究热点,如预训练模型、知识的引入、迁移学习、低资源任务学习、多模态学习等,内容介绍上由浅入深,从基础环境安装,到理论讲解,再到数学推导,然后解释各个模型的优缺点,*后还有应用场景介绍和代码实战。
图书标准信息
  • 作者 开课吧、张楠、苏南、王贵阳 著
  • 出版社 机械工业出版社
  • 出版时间 2020-09
  • ISBN 9787111660149
  • 定价 59.90元
  • 装帧 平装
  • 开本 16开
  • 纸张 胶版纸
  • 页数 200页
【内容简介】


   近年来,基于深度学习方法的自然语言处理(NLP)已逐渐成为主流。本书共8章,主要介绍自然语言处理任务中的深度学习技术,包含深度学习理论基础、深度学习的软件框架、语言模型与词向量、序列模型与梯度消失/爆炸、卷积神经网络在NLP领域的应用、Seq2Seq模型与Attention机制、大规模预训练模型、预训练语言模型BERT,还给出了自然语言处理技术的高级应用和开发实例,并收录了基于PyTorch深度学习框架的部分实践项目。
   本书既可作为人工智能、计算机科学、电子信息工程、自动化等专业的本科生及研究生教材,也可作为自然语言处理相关领域的研究人员和技术人员的参考资料。

 

 

 


【目录】

◆ 目录:◆

 

  

 

 

 

前言
   第1章深度学习理论基础
   1.1深度学习概况
   1.1.1深度学习的历史
   1.1.2“无所不能”的深度学习
   1.2深度学习神经网络
   1.2.1神经网络
   1.2.2隐藏层
   1.2.3梯度下降
   1.2.4激活函数
   1.2.5权重初始化
   1.2.6正则化
   1.2.7归一化
   第2章深度学习的软件框架
   2.1环境配置
   2.1.1Anaconda
   2.1.2英伟达GPU驱动+CUDA+cuDNN
   2.1.3PyTorch安装
   2.1.4Python IDE选择
   2.2PyTorch 入门
   2.2.1Tensor基本概念
   2.2.2Tensor的运算
   2.3PyTorch自动求梯度
   2.3.1基本概念
   2.3.2Tensor样例
   2.3.3梯度计算
   2.4PyTorch nn模块
   第3章语言模型与词向量
   3.1语言模型
   3.1.1无处不在的语言模型
   3.1.2神经网络语言模型
   3.2词向量
   3.2.1one-hot
   3.2.2word2vec
   3.2.3GloVe
   3.3代码实战
   3.3.1任务1:应用PyTorch搭建Skip-Gram
   3.3.2任务2:基于GloVe的大规模中文语料的词向量训练
   第4章序列模型与梯度消失/爆炸
   4.1循环神经网络
   4.1.1模型结构及计算过程
   4.1.2应用PyTorch搭建并训练RNN模型
   4.2梯度消失与爆炸
   4.2.1产生原因
   4.2.2解决方法
   4.3改进方法
   4.3.1LSTM
   4.3.2GRU
   4.4代码实战:搭建LSTM/GRU的文本分类器
   第5章卷积神经网络在NLP领域的应用
   5.1卷积神经网络的概念
   5.1.1输入层
   5.1.2卷积层
   5.1.3池化层
   5.1.4全连接层
   5.2空洞卷积神经网络
   5.2.1空洞卷积的基本定义
   5.2.2空洞卷积在NLP中的应用
   5.2.3空洞卷积相关代码
   5.2.4多层卷积
   5.3代码实战:CNN情感分类实战
   5.3.1数据处理
   5.3.2程序主干部分
   5.3.3模型部分
   5.3.4模型训练与评估
   第6章Seq2Seq模型与Attention机制
   6.1Encoder-Decoder结构
   6.1.1Encoder
   6.1.2Decoder
   6.1.3Encoder-Decoder存在的问题
   6.2Attention机制
   6.3Seq2Seq训练与预测
   6.3.1模型训练
   6.3.2模型预测
   6.3.3BLEU模型评估法
   6.4代码实战:应用PyTorch搭建机器翻译模型
   第7章大规模预训练模型
   7.1ELMo
   7.1.1模型结构
   7.1.2模型效果
   7.1.3ELMo的优点
   7.1.4利用ELMo+CNN进行分类的示例
   7.2Transformer
   7.2.1Encoder端及Decoder端总览
   7.2.2Encoder端各个子模块
   7.2.3Decoder端各个子模块
   7.2.4其他模块
   7.2.5完整模型
   第8章预训练语言模型BERT
   8.1BERT的基本概念
   8.2BERT的工作原理
   8.2.1BERT的预训练
   8.2.2BERT模型结构
   8.2.3BERT的微调
   8.3BERT的可解释性
   8.4其他预训练模型
   8.4.1XLNet
   8.4.2RoBERTa
   8.4.3ALBERT
   8.5代码实战:预训练模型
   参考文献

 


点击展开 点击收起

—  没有更多了  —

以下为对购买帮助不大的评价

新华文轩网络书店 全新正版书籍
此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP