• 动手学深度学(pytorch版) 人工智能 作者 新华正版
  • 动手学深度学(pytorch版) 人工智能 作者 新华正版
21年品牌 40万+商家 超1.5亿件商品

动手学深度学(pytorch版) 人工智能 作者 新华正版

50.5 4.6折 109.8 全新

库存45件

河北保定
认证卖家担保交易快速发货售后保障

作者作者

出版社人民邮电

ISBN9787115600820

出版时间2023-02

版次1

装帧平装

开本16

页数572页

字数0.97千字

定价109.8元

货号313_9787115600820

上书时间2024-10-30

萬書緣

十五年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
正版特价新书
商品描述
主编:

深度学领域重磅作品动手学深度学重磅推出pytorch版本;
李沐、阿斯顿张等大咖作者强强联合,精心编撰;
全球400多所大学采用的教科书,提供课程、ppt、题,方便教师授课与自学;
能运行、可讨论的深度学入门书,可在线运行源码并与作译者实时讨论。

目录:

对本书的赞誉
前言
译者简介
学环境配置
资源与支持
主要符号表
章引言1
1.1常生活中的机器学2
1.2机器学中的关键组件3
1.2.1数据3
1.2.2模型4
1.2.3目标函数4
1.2.4优化算法5
1.3各种机器学问题5
1.3.1监督学5
1.3.2无监督学11
1.3.3与环境互动11
1.3.4强化学12
1.4起源13
1.5深度学的发展15
1.6深度学的成功案例16
1.7特点17
第2章预备知识20
2.1数据作20
2.1.1入门21
2.1.2运算符22
2.1.3广播机制23
2.1.4索引和切片24
2.1.5节省内存24
2.1.6转换为其他python对象25
2.2数据预处理26
2.2.1读取数据集26
2.2.2处理缺失值26
2.2.3转换为张量格式27
2.3线代数27
2.3.1标量28
2.3.2向量28
2.3.3矩阵29
2.3.4张量30
2.3.5张量算法的基本质31
2.3.6降维32
2.3.7点积33
2.3.8矩阵-向量积33
2.3.9矩阵-矩阵乘法34
2.3.10范数35
2.3.11关于线代数的更多信息36
2.4微积分37
2.4.1导数和微分37
2.4.2偏导数40
2.4.3梯度41
2.4.4链式法则41
2.5自动微分42
2.5.1一个简单的例子42
2.5.2非标量变量的反向传播43
2.5.3分离计算43
2.5.4python控制流的梯度计算44
2.6概率44
2.6.1基本概率论45
2.6.2处理多个变量48
2.6.3期望和方差50
2.7查阅文档51
2.7.1查找模块中的所有函数和类51
2.7.2查找特定函数和类的用法52
第3章线神经网络54
3.1线回归54
3.1.1线回归的基本元素54
3.1.2向量化加速57
3.1.3正态分布与方损失58
3.1.4从线回归到深度网络60
3.2线回归的从零开始实现61
3.2.1生成数据集62
3.2.2读取数据集63
3.2.3初始化模型参数63
3.2.4定义模型64
3.2.5定义损失函数64
3.2.6定义优化算法64
3.2.7训练64
3.3线回归的简洁实现66
3.3.1生成数据集66
3.3.2读取数据集66
3.3.3定义模型67
3.3.4初始化模型参数67
3.3.5定义损失函数68
3.3.6定义优化算法68
3.3.7训练68
3.4softmax回归69
3.4.1分类问题69
3.4.2网络架构70
3.4.3全连接层的参数开销70
3.4.4softmax运算71
3.4.5小批量样本的向量化71
3.4.6损失函数72
3.4.7信息论基础73
3.4.8模型预测和评估74
3.5图像分类数据集74
3.5.1读取数据集75
3.5.2读取小批量76
3.5.3整合所有组件76
3.6softmax回归的从零开始实现77
3.6.1初始化模型参数77
3.6.2定义softmax作78
3.6.3定义模型78
3.6.4定义损失函数79
3.6.5分类精度79
3.6.6训练80
3.6.7预测82
3.7softmax回归的简洁实现83
3.7.1初始化模型参数83
3.7.2重新审视softmax的实现84
3.7.3优化算法84
3.7.4训练84
第4章多层感知机86
4.1多层感知机86
4.2多层感知机的从零开始实现92
4.3多层感知机的简洁实现94
模型94
4.4模型选择、欠拟合和过拟合95
4.5权重衰减103
4.6暂退法108
4.7前向传播、反向传播和计算图112
4.8数值稳定和模型初始化115
4.9环境和分布偏移119
4.10实战kale比赛:预测房价127
第5章深度学计算136
5.1层和块136
5.2参数管理141
5.3延后初始化145
实例化网络146
5.4自定义层146
5.5读写文件148
5.6pu150
第6章卷积神经网络155
6.1从全连接层到卷积155
6.2图像卷积159
6.3填充和步幅164
6.4多输入多输出通道166
6.5汇聚层170
6.6卷积神经网络(le)173
第7章现代卷积神经网络178
7.1深度卷积神经网络(alex)178
7.2使用块的网络(v)184
7.3网络中的网络(nin)187
7.4含并行连接的网络(oole)190
7.5批量规范化194
7.6残差网络(res)200
7.7稠密连接网络(dense)205
第8章循环神经网络209
8.1序列模型209
8.2文本预处理216
8.3语言模型和数据集219
8.4循环神经网络226
8.5循环神经网络的从零开始实现230
8.6循环神经网络的简洁实现237
8.7通过时间反向传播239
第9章现代循环神经网络244
9.1门控循环单元(ru)244
9.2长短期记忆网络(lstm)249
9.3深度循环神经网络254
9.4双向循环神经网络256
9.5机器翻译与数据集260
9.6-架构265
9.7序列到序列学(seq2seq)267
9.8束搜索275
0章注意力机制278
10.1注意力提示278
10.2注意力汇聚:nadaraya-watson核回归281
10.3注意力评分函数287
10.4bahdanau注意力291
10.5多头注意力295
10.6自注意力和位置编码298
10.7transformer302
1章优化算法311
11.1优化和深度学311
11.2凸315
11.3梯度下降322
11.4梯度下降329
11.5小批量梯度下降334
11.6动量法341
11.7adarad算法348
11.8rmsprop算法353
11.9adadelta算法356
11.10adam算法358
11.11学率调度器361
2章计算能369
12.1编译器和解释器369
12.2异步计算372
通过后端异步处理373
12.3自动并行375
12.4硬件378
12.5多pu训练388
12.6多pu的简洁实现394
12.7参数服务器397
3章计算机视觉404
13.1图像增广404
13.2微调410
13.3目标检测和边界框415
13.4锚框417
13.5多尺度目标检测427
13.6目标检测数据集430
13.7单发多框检测(ssd)433
13.8区域卷积神经网络(r-n)系列441
13.9语义分割和数据集445
13.10转置卷积450
13.11全卷积网络453
13.12风格迁移458
13.13实战kale竞赛:图像分类(cifar-10)464
13.14实战kale竞赛:的品种识别(imaedos)470
4章自然语言处理:预训练476
14.1词嵌入(word2vec)477
14.2近似训练480
14.3用于预训练词嵌入的数据集482
14.4预训练word2vec488
14.5全局向量的词嵌入(glove)491
14.6子词嵌入494
14.7词的相似度和类比任务497
14.8来自transformer的双向表示(bert)500
14.9用于预训练bert的数据集507
14.10预训练bert512
5章自然语言处理:应用515
15.1情感分析及数据集516
15.2情感分析:使用循环神经网络518
15.3情感分析:使用卷积神经网络521
15.4自然语言推断与数据集526
15.5自然语言推断:使用注意力530
15.6针对序列级和词元级应用微调bert535
15.7自然语言推断:微调bert538
附录a深度学工具543
a.1使用jupyter记事本543
a.1.1在本地编辑和运行代码543
a.1.2选项545
a.2使用saemaker546
a.2.1注册547
a.2.2创建saemaker实例547
a.2.3运行和停止实例548
a.2.4更新notebook548
a.3使用ec2实例549
a.3.1创建和运行ec2实例549
a.3.2安装cuda553
a.3.3安装库以运行代码553
a.3.4远程运行jupyter记事本554
a.3.5关闭未使用的实例554
a.4选择服务器和pu555
a.4.1选择服务器555
a.4.2选择pu556
a.5为本书做贡献558
a.5.1提交更改558
a.5.2大量文本或代码修改559
a.5.3提交主要更改559
参文献562
 



内容简介:

本书是动手学深度学的重磅升级版本,选用经典的pytorch深度学框架,旨在向读者交付更为便捷的有关深度学的交互式学体验。
本书重新修订动手学深度学的所有内容,并针对技术的发展,新增注意力机制、预训练等内容。本书包含15章,部分介绍深度学的基础知识和预备知识,并由线模型引出简单的神经网络——多层感知机;第二部分阐述深度学计算的关键组件、卷积神经网络、循环神经网络、注意力机制等大多数现代深度学应用背后的基本工具;第三部分讨论深度学中常用的优化算法和影响深度学计算能的重要因素,并分别列举深度学在计算机视觉和自然语言处理中的重要应用。
本书同时覆盖深度学的方法和实践,主要面向在校大、技术人员和研究人员。阅读本书需要读者了解基本的python编程知识及预备知识中描述的线代数、微分和概率等基础知识。

作者简介:

作者简介: 阿斯顿张(aton zhang),科学家,美国伊利诺伊大学香槟分校计算机科学博士,统计学和计算机科学双硕士。他专注于机器学和自然语言处理的研究,荣获深度学国际学术会议iclr杰出奖、acm ubip杰出奖以及acm eny奖提名。他担任过emnlp领域和aaai程序委员。 扎卡里c. 立顿(zachary c. lipton),美国卡内基梅隆大学机器学和运筹学助理教授,并在海因茨公共政策学院以及软件和社会系统系担任礼节任命。他着近似正确机器智能(acmi)实验室,研究涉及核心机器学方法、其社会影响以及包括临床医学和自然语言处理在内的各种应用领域。他目前的研究重点包括处理各种因果结构下分布变化的稳健和自适应算法、预测为决策提供信息(包括应对已部署模型的战略响应)、医学诊断和预后预测、算法公和可解释的基础。他是“appromately correct”博客的创始人,也是讽刺漫画“uperheroe of deep learning”的合著者。 李沐(mu li),首席科学家(enior principal cientit),美国加利福尼亚大学伯克利分校、斯坦福大学客座助理教授,美国卡内基梅隆大学计算机系博士。他曾任机器学创业公司mariana lab的cto和百度深度学研究院的主任研发架构师。他专注于机器学系统和机器学算法的研究。他在理论与应用、机器学与作系统等多个领域的学术会议上发表过,被引用上万次。 亚历山大j. 斯莫拉(alexander j. mola),副裁/杰出科学家,德国柏林大学计算机科学博士。他曾在澳大利亚国立大学、美国加利福尼亚大学伯克利分校和卡内基梅隆大学任教。他发表过超过300篇学术,并著有5本书,其及书被引用超过15万次。他的研究兴趣包括深度学、贝叶斯非参数、核方法、统计建模和可扩展算法。 译者简介: 何孝霆(aoting he),应用科学家,学院软件工程硕士。他专注于对深度学的研究,特别是自然语言处理的应用(包括语言模型、aio、ocr),相关工作落地于众多企业。他担任过acl、emnlp、naacl、eacl等学术会议的程序委员或审稿人。 瑞潮儿胡(rachel hu),应用科学家,美国加利福尼亚大学伯克利分校统计学硕士,加拿大滑铁卢大学数学学士。她致力于将机器学应用于现实世界的产品。她也是人工智能团队的讲师,教授自然语言处理、计算机视觉和机器学商业应用等课程。她已向累计1000余名工程师教授机器学,其公开课程在youtube和哔哩哔哩上广受。

—  没有更多了  —

以下为对购买帮助不大的评价

正版特价新书
此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP