• 动手学深度学习:PyTorch版 9787115600806 阿斯顿·张(Aston Zhang) [美]扎卡里·C. 立顿(Zachary C. Lipton) 李沐(Mu Li) [德]亚历山大·J. 斯莫拉(Alexander J. Smola) 人民邮电出版社
21年品牌 40万+商家 超1.5亿件商品

动手学深度学习:PyTorch版 9787115600806 阿斯顿·张(Aston Zhang) [美]扎卡里·C. 立顿(Zachary C. Lipton) 李沐(Mu Li) [德]亚历山大·J. 斯莫拉(Alexander J. Smola) 人民邮电出版社

当天发货,全新正版书。

160.9 7.0折 229.8 全新

库存31件

北京通州
认证卖家担保交易快速发货售后保障

作者阿斯顿·张(Aston Zhang) [美]扎卡里·C. 立顿(Zachary C. Lipton) 李沐(Mu Li) [德]亚历山大·J. 斯莫拉(Alexander J. Smola)

出版社人民邮电出版社

ISBN9787115600806

出版时间2022-10

装帧精装

开本16开

定价229.8元

货号12229078

上书时间2024-06-01

白湘云书社

十四年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介
作者简介: 阿斯顿·张(Aston Zhang),Amazon资历深厚的研究员,美国伊利诺伊大学香槟分校计算机科学博士,统计学和计算机科学双硕士。他专注于机器学习和自然语言处理的研究,荣获深度学习国际高水平学术会议ICLR杰出论文奖、ACM UbiComp杰出论文奖以及ACM SenSys高水平论文奖提名。他担任过EMNLP领域主席和AAAI程序委员。 [美]扎卡里·C. 立顿(Zachary C. Lipton),美国卡内基梅隆大学机器学习和运筹学助理教授,并在海因茨公共政策学院以及软件和社会系统系担任礼节性任命。他领导着近似正确机器智能(ACMI)实验室,研究涉及核心机器学习方法、其社会影响以及包括临床医学和自然语言处理在内的各种应用领域。他目前的研究重点包括处理各种因果结构下分布变化的稳健和自适应算法、超越预测为决策提供信息(包括应对已部署模型的战略响应)、医学诊断和预后预测、算法公平性和可解释性的基础。他是“Approximately Correct”博客的创立人,也是讽刺性漫画“Superheroes of Deep Learning”的合著者。 李沐(Mu Li),Amazon资历深厚的领衔研究员(Senior Principal Scientist),美国加利福尼亚大学伯克利分校、斯坦福大学客座助理教授,美国卡内基梅隆大学计算机系博士。他曾任机器学习创业公司Marianas Labs的CTO和百度深度学习研究院的主任研发架构师。他专注于机器学习系统和机器学习算法的研究。他在理论与应用、机器学习与操作系统等多个领域的高水平学术会议上发表过论文,被引用上万次。 [德]亚历山大·J. 斯莫拉(Alexander J. Smola),Amazon副总裁/杰出研究员,德国柏林工业大学计算机科学博士。他曾在澳大利亚国立大学、美国加利福尼亚大学伯克利分校和卡内基梅隆大学任教。他发表过超过300篇学术论文,并著有5本书,其论文及书被引用超过15万次。他的研究兴趣包括深度学习、贝叶斯非参数、核方法、统计建模和可扩展算法。 译者简介: 何孝霆(Xiaoting He),Amazon应用研究员,中国科学院软件工程硕士。他专注于对深度学习的研究,特别是自然语言处理的应用(包括语言模型、AIOps、OCR),相关工作落地于众多企业。他担任过ACL、EMNLP、NAACL、EACL等学术会议的程序委员或审稿人。 瑞潮儿·胡(Rachel Hu),Amazon应用研究员,美国加利福尼亚大学伯克利分校统计学硕士,加拿大滑铁卢大学数学学士。她致力于将机器学习应用于现实世界的产品。她也是Amazon人工智能团队的讲师,教授自然语言处理、计算机视觉和机器学习商业应用等课程。她已向累计1000余名Amazon工程师教授机器学习,其公开课程视频在YouTube和哔哩哔哩上屡获盛赞。

目录
对本书的赞誉 前言 译者简介 学习环境配置 资源与支持 主要符号表 第 1章  引言  1 1.1  日常生活中的机器学习  2 1.2  机器学习中的关键组件  3 1.2.1  数据  3 1.2.2  模型  4 1.2.3  目标函数  4 1.2.4  优化算法  5 1.3  各种机器学习问题  5 1.3.1  监督学习  5 1.3.2  无监督学习  11 1.3.3  与环境互动  11 1.3.4  强化学习  12 1.4  起源  13 1.5  深度学习的发展  15 1.6  深度学习的成功案例  16 1.7  特点  17 第 2章  预备知识  20 2.1  数据操作  20 2.1.1  入门  21 2.1.2  运算符  22 2.1.3  广播机制  23 2.1.4  索引和切片  24 2.1.5  节省内存  24 2.1.6  转换为其他Python对象  25 2.2  数据预处理  26 2.2.1  读取数据集  26 2.2.2  处理缺失值  26 2.2.3  转换为张量格式  27 2.3  线性代数  27 2.3.1  标量  28 2.3.2  向量  28 2.3.3  矩阵  29 2.3.4  张量  30 2.3.5  张量算法的基本性质  31 2.3.6  降维  32 2.3.7  点积  33 2.3.8  矩阵-向量积  33 2.3.9  矩阵-矩阵乘法  34 2.3.10  范数  35 2.3.11  关于线性代数的更多信息  36 2.4  微积分  37 2.4.1  导数和微分  37 2.4.2  偏导数  40 2.4.3  梯度  41 2.4.4  链式法则  41 2.5  自动微分  42 2.5.1  一个简单的例子  42 2.5.2  非标量变量的反向传播  43 2.5.3  分离计算  43 2.5.4  Python控制流的梯度计算  44 2.6  概率  44 2.6.1  基本概率论  45 2.6.2  处理多个随机变量  48 2.6.3  期望和方差  50 2.7  查阅文档  51 2.7.1  查找模块中的所有函数和类  51 2.7.2  查找特定函数和类的用法  52 第3章  线性神经网络  54 3.1  线性回归  54 3.1.1  线性回归的基本元素  54 3.1.2  向量化加速  57 3.1.3  正态分布与平方损失  58 3.1.4  从线性回归到深度网络  60 3.2  线性回归的从零开始实现  61 3.2.1  生成数据集  62 3.2.2  读取数据集  63 3.2.3  初始化模型参数  63 3.2.4  定义模型  64 3.2.5  定义损失函数  64 3.2.6  定义优化算法  64 3.2.7  训练  64 3.3  线性回归的简洁实现  66 3.3.1  生成数据集  66 3.3.2  读取数据集  66 3.3.3  定义模型  67 3.3.4  初始化模型参数  67 3.3.5  定义损失函数  68 3.3.6  定义优化算法  68 3.3.7  训练  68 3.4  softmax回归  69 3.4.1  分类问题  69 3.4.2  网络架构  70 3.4.3  全连接层的参数开销  70 3.4.4  softmax运算  71 3.4.5  小批量样本的向量化  71 3.4.6  损失函数  72 3.4.7  信息论基础  73 3.4.8  模型预测和评估  74 3.5  图像分类数据集  74 3.5.1  读取数据集  75 3.5.2  读取小批量  76 3.5.3  整合所有组件  76 3.6  softmax回归的从零开始实现  77 3.6.1  初始化模型参数  77 3.6.2  定义softmax操作  78 3.6.3  定义模型  78 3.6.4  定义损失函数  79 3.6.5  分类精度  79 3.6.6  训练  80 3.6.7  预测  82 3.7  softmax回归的简洁实现  83 3.7.1  初始化模型参数  83 3.7.2  重新审视softmax的实现  84 3.7.3  优化算法  84 3.7.4  训练  84 第4章  多层感知机  86 4.1  多层感知机  86 4.1.1  隐藏层  86 4.1.2  激活函数  88 4.2  多层感知机的从零开始实现  92 4.2.1  初始化模型参数  92 4.2.2  激活函数  93 4.2.3  模型  93 4.2.4  损失函数  93 4.2.5  训练  93 4.3  多层感知机的简洁实现  94 模型  94 4.4  模型选择、欠拟合和过拟合  95 4.4.1  训练误差和泛化误差  96 4.4.2  模型选择  97 4.4.3  欠拟合还是过拟合  98 4.4.4  多项式回归  99 4.5  权重衰减  103 4.5.1  范数与权重衰减  103 4.5.2  高维线性回归  104 4.5.3  从零开始实现  104 4.5.4  简洁实现  106 4.6  暂退法  108 4.6.1  重新审视过拟合  108 4.6.2  扰动的稳健性  108 4.6.3  实践中的暂退法  109 4.6.4  从零开始实现  110 4.6.5  简洁实现  111 4.7  前向传播、反向传播和计算图  112 4.7.1  前向传播  113 4.7.2  前向传播计算图  113 4.7.3  反向传播  114 4.7.4  训练神经网络  115 4.8  数值稳定性和模型初始化  115 4.8.1  梯度消失和梯度爆炸  116 4.8.2  参数初始化  117 4.9  环境和分布偏移  119 4.9.1  分布偏移的类型  120 4.9.2  分布偏移示例  121 4.9.3  分布偏移纠正  122 4.9.4  学习问题的分类法  125 4.9.5  机器学习中的公平、责任和透明度  126 4.10  实战Kaggle比赛:预测房价  127 4.10.1  下载和缓存数据集  127 4.10.2  Kaggle  128 4.10.3  访问和读取数据集  129 4.10.4  数据预处理  130 4.10.5  训练  131 4.10.6  K折交叉验证  132 4.10.7  模型选择  133 4.10.8  提交Kaggle预测  133 第5章  深度学习计算  136 5.1  层和块  136 5.1.1  自定义块  138 5.1.2  顺序块  139 5.1.3  在前向传播函数中执行代码  139 5.1.4  效率  140 5.2  参数管理  141 5.2.1  参数访问  141 5.2.2  参数初始化  143 5.2.3  参数绑定  145 5.3  延后初始化  145 实例化网络  146 5.4  自定义层  146 5.4.1  不带参数的层  146 5.4.2  带参数的层  147 5.5  读写文件  148 5.5.1  加载和保存张量  148 5.5.2  加载和保存模型参数  149 5.6  GPU  150 5.6.1  计算设备  151 5.6.2  张量与GPU  152 5.6.3  神经网络与GPU  153 第6章  卷积神经网络  155 6.1  从全连接层到卷积  155 6.1.1  不变性  156 6.1.2  多层感知机的  157 6.1.3  卷积  158 6.1.4  “沃尔多在哪里”回顾  158 6.2  图像卷积  159 6.2.1  互相关运算  159 6.2.2  卷积层  161 6.2.3  图像中目标的边缘检测  161 6.2.4  学习卷积核  162 6.2.5  互相关和卷积  162 6.2.6  特征映射和感受野  163 6.3  填充和步幅  164 6.3.1  填充  164 6.3.2  步幅  165 6.4  多输入多输出通道  166 6.4.1  多输入通道  167 6.4.2  多输出通道  167 6.4.3  1×1卷积层  168 6.5  汇聚层  170 6.5.1  优选汇聚和平均汇聚  170 6.5.2  填充和步幅  171 6.5.3  多个通道  172 6.6  卷积神经网络(LeNet)  173 6.6.1  LeNet  173 6.6.2  模型训练  175 第7章  现代卷积神经网络  178 7.1  深度卷积神经网络(AlexNet)  178 7.1.1  学习表征  179 7.1.2  AlexNet  181 7.1.3  读取数据集  183 7.1.4  训练AlexNet  183 7.2  使用块的网络(VGG)  184 7.2.1  VGG块  184 7.2.2  VGG网络  185 7.2.3  训练模型  186 7.3  网络中的网络(NiN)  187 7.3.1  NiN块  187 7.3.2  NiN模型  188 7.3.3  训练模型  189 7.4  含并行连接的网络(GoogLeNet)  190 7.4.1  Inception块  190 7.4.2  GoogLeNet模型  191 7.4.3  训练模型  193 7.5  批量规范化  194 7.5.1  训练深层网络  194 7.5.2  批量规范化层  195 7.5.3  从零实现  196 7.5.4  使用批量规范化层的 LeNet  197 7.5.5  简明实现  198 7.5.6  争议  198 7.6  残差网络(ResNet)&nbs

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP