• PyTorch深度学习实战:从新手小白到数据科学家(博文视点出品)
图书条目标准图
21年品牌 40万+商家 超1.5亿件商品

PyTorch深度学习实战:从新手小白到数据科学家(博文视点出品)

52.3 4.8折 109 全新

仅1件

河北保定
认证卖家担保交易快速发货售后保障

作者张敏 著

出版社电子工业出版社

出版时间2020-08

版次1

装帧平装

货号x3

上书时间2024-04-27

尚贤文化江苏分店

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
图书标准信息
  • 作者 张敏 著
  • 出版社 电子工业出版社
  • 出版时间 2020-08
  • 版次 1
  • ISBN 9787121388293
  • 定价 109.00元
  • 装帧 平装
  • 开本 16开
  • 页数 400页
【内容简介】
本书以深度学习为核心,详细讲解Pytorch技术堆栈,力求使用最直白的语言,带更多的小白学员入门甚至精通深度学习。本书共分为10个章节,前五个章节主要讲解深度学习中的基本算法及概念,通过使用Pytorch实现经典的神经网络并辅以"课后加油站”小节补充数学知识,力求让每一个知识点、每一个章节、每一个实验都能在学员脑海中留下印象,做到看了能做、做了能会、会了能用。后面五个章节作为Pytorch的进阶,会讲使用Pytorch构建深度神经网络、使用HMM实现中文分词、训练聊天机器人等有意思的小实验。引入当下***的自然语言预训练模型如Elmo、BERT等,教会读者使用自然语言利器AllenNLP及高阶框架FastAI。最后一章讲解当下***的图嵌入技术,对知识图谱感兴趣的童鞋可以深入的研究。
【作者简介】
张敏,2015年开始从事大数据行业,多年来一直致力于数据分析和算法开发。2017年开始接触在线教育,目前全网学员总数破100万,相继在51CTO、腾讯课堂、网易课堂、CSDN等平台开启教学。在51CTO平台上的SPARK课程销量做到行业类目前列,曾在多家大公司从事数据挖掘工作,拥有丰富的大数据经验和底层数据思维。在工作中总结了很多有用的经验,都毫无保留地分享给读者,以帮助读者提升、成长。
【目录】
目录
第1章  初识PyTorch1
1.1  神经网络发展简史1
1.1.1  神经网络的前世今生1
1.1.2  深度学习框架对比3
1.2  环境安装6
1.2.1  Python环境的选择及安装6
1.2.2  PyTorch 1.2的安装8
1.2.3  开发环境IDE10
1.3  PyTorch的核心概念11
1.3.1  PyTorch的基本概念11
1.3.2  自动微分16
1.3.3  PyTorch的核心模块19
1.4  实验室小试牛刀20
1.4.1  塔珀自指公式20
1.4.2  看看你毕业了能拿多少22
1.5  加油站之高等数学知识回顾39
1.5.1  函数基础知识39
1.5.2  常见的导数公式45
第2章  机器学习快速入门49
2.1  机器学习的分类49
2.1.1  监督学习49
2.1.2  半监督学习51
2.1.3  无监督学习51
2.1.4  强化学习52
2.2  机器学习的常见概念54
2.2.1  缺失值处理54
2.2.2  数据标准化与数据正则化56
2.2.3  交叉验证59
2.2.4  过拟合与欠拟合61
2.3  神经网络62
2.3.1  神经网络的生物学发现与编程模拟62
2.3.2  人工神经网络的核心思想69
2.4  实现线性回归、多项式回归和逻辑回归70
2.4.1  PyTorch实现线性回归70
2.4.2  PyTorch实现多项式回归73
2.4.3  PyTorch实现逻辑回归77
2.5  加油站之高等数学知识回顾82
2.5.1  方向导数和梯度82
2.5.2  微分及积分84
2.5.3  牛顿-莱布尼兹公式87
第3章  PyTorch与科学计算89
3.1  算子字典89
3.1.1  基本方法89
3.1.2  索引、切片、连接和换位91
3.1.3  随机抽样95
3.1.4  数据持久化与高并发97
3.1.5  元素级别的数学计算98
3.1.6  规约计算102
3.1.7  数值比较运算104
3.1.8  矩阵运算106
3.2  广播机制110
3.2.1  自动广播规则110
3.2.2  广播计算规则111
3.3  GPU设备及并行编程112
3.3.1  device和cuda.device的基本用法112
3.3.2  CPU设备到GPU设备113
3.3.3  固定缓冲区115
3.3.4  自动设备感知117
3.3.5  并发编程118
3.4  实验室小试牛刀之轻松搞定图片分类121
3.4.1  softmax分类简介123
3.4.2  定义网络结构126
3.5  加油站之高等数学知识回顾133
3.5.1  泰勒公式及其思想133
3.5.2  拉格朗日乘子法及其思想138
第4章  激活函数、损失函数、优化器及数据加载140
4.1  激活函数140
4.1.1  Sigmoid141
4.1.2  tanh143
4.1.3  ReLU及其变形145
4.1.4  MaxOut148
4.2  损失函数150
4.2.1  L1范数损失150
4.2.2  均方误差损失151
4.2.3  二分类交叉熵损失152
4.2.4  CrossEntropyLoss和NLLLoss计算交叉熵损失152
4.2.5  KL散度损失154
4.2.6  余弦相似度损失155
4.2.7  多分类多标签损失156
4.3  优化器157
4.3.1  BGD157
4.3.2  SGD158
4.3.3  MBGD159
4.3.4  Momentum160
4.3.5  NAG161
4.3.6  Adagrad161
4.3.7  Adadelta162
4.3.8  Adam163
4.4  数据加载164
4.4.1  Dataset数据集164
4.4.2  DataLoader数据加载167
4.5  初探卷积神经网络169
4.5.1  知识科普:卷积过程及物理意义169
4.5.2  卷积神经网络173
4.5.3  stride和padding179
4.5.4  膨胀卷积神经网络180
4.5.5  池化182
4.6  实验室小试牛刀184
4.6.1  设计卷积神经网络184
4.6.2  定义卷积神经网络185
4.6.3  模型训练186
4.6.4  理解卷积神经网络在学什么189
第5章  PyTorch深度神经网络201
5.1  计算机视觉工具包201
5.2  训练过程的可视化204
5.2.1  TensorBoard204
5.2.2  Visdom210
5.3  深度神经网络212
5.3.1  LeNet212
5.3.2  AlexNet214
5.3.3  ZF-Net217
5.3.4  VGG-Nets219
5.3.5  GoogLeNet222
5.3.6  ResNet224
5.3.7  DenseNet226
5.4  循环神经网络228
5.4.1  循环神经网络基础模型229
5.4.2  LSTM233
5.4.3  GRU238
5.5  实验室小试牛刀240
5.5.1  数据准备241
5.5.2  GRU网络设计242
5.5.3  模型训练244
5.5.4  模型预测245
5.6  加油站之概率论基础知识回顾246
5.6.1  离散型随机变量和连续型随机变量246
5.6.2  概率论常用概念251
5.6.3  二维随机变量253
5.6.4  边缘分布255
5.6.5  期望和方差257
5.6.6  大数定理258
5.6.7  马尔可夫不等式及切比雪夫不等式259
5.6.8  中心极限定理260
第6章  自然语言处理261
6.1  自然语言基础261
6.1.1  自然语言发展史261
6.1.2  自然语言处理中的常见任务264
6.1.3  统计自然语言理论266
6.1.4  使用隐马尔可夫模型实现中文分词278
6.2  提取关键字281
6.2.1  TF-IDF281
6.2.2  TextRank283
6.2.3  主题模型284
6.3  Word2vec和词嵌入285
6.3.1  N-Gram模型286
6.3.2  词袋模型287
6.3.3  Word2vec词向量的密集表示288
6.3.4  使用Word2vec生成词向量297
6.3.5  Word2vec源码调试299
6.3.6  在PyTorch中使用词向量300
6.4  变长序列处理302
6.4.1  pack_padded_sequence压缩304
6.4.2  pad_packed_sequence解压缩306
6.5  Encoder-Decoder框架和注意力机制307
6.5.1  Encoder-Decoder框架308
6.5.2  注意力机制309
6.6  实验室小试牛刀之对话机器人312
6.6.1  中文对话语料313
6.6.2  构建问答词典313
6.6.3  DataLoader数据加载315
6.6.4  Encoder双向多层GRU318
6.6.5  运用注意力机制320
6.6.6  Decoder多层GRU321
6.6.7  模型训练323
6.6.8  答案搜索及效果展示324
6.7  加油站之常见的几种概率分布326
6.7.1  二项分布326
6.7.2  正态分布327
6.7.3  均匀分布328
6.7.4  泊松分布330
6.7.5  卡方分布332
6.7.6  Beta分布333
第7章  自然语言的曙光:预训练模型336
7.1  预训练模型的应用336
7.2  从词嵌入到ELMo337
7.2.1  词嵌入头上的乌云337
7.2.2  ELMo338
7.3  从ELMo模型到GPT模型341
7.3.1  GPT模型341
7.3.2  使用GPT模型342
7.4  从GPT模型到BERT模型344
第8章  自然语言处理利器:AllenNLP349
8.1  中文词性标注349
8.1.1  DatasetReader数据读取350
8.1.2  定义Model模型352
8.1.3  模型训练354
8.1.4  模型预测355
8.1.5  模型保存和加载356
8.2  AllenNLP 使用Config Files356
8.2.1  参数解析357
8.2.2  注册数据读取器和模型357
8.2.3  定义Jsonnet配置文件357
8.2.4  命令行工具359
8.2.5  特征融合360
8.2.6  制作在线Demo362
第9章  FastAI高层深度学习框架364
9.1  FastAI框架中的原语364
9.2  在FastAI框架中使用BERT模型完成中文分类365
9.2.1  分词器365
9.2.2  定义字典368
9.2.3  数据准备368
9.2.4  构建Databunch和Learner370
9.2.5  模型训练371
9.2.6  模型保存和加载371
9.2.7  模型预测372
9.2.8  制作Rest接口提供服务372
第10章  PyTorch Big Graph嵌入374
10.1  PyTorch Big Graph简介374
10.1.1  PBG模型375
10.1.2  模型的表示376
10.1.3  正样本、负样本及损失函数377
10.1.4  分布式训练377
10.1.5  批量负采样379
10.2  PBG实践应用379
10.2.1  模型配置文件380
10.2.2  划分训练集和测试集381
10.2.3  模型训练和验证382
10.2.4  图嵌入向量及应用384
点击展开 点击收起

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP