深度学习:从基础到实践(上、下册)
新华书店全新正版书籍图书 保证_可开发票_极速发货支持7天无理由
¥
146.2
7.3折
¥
199.8
全新
库存4件
作者 (美)安德鲁·格拉斯纳
出版社 人民邮电出版社
ISBN 9787115554512
出版时间 2022-12
装帧 平装
开本 16开
定价 199.8元
货号 31609394
上书时间 2024-10-20
商品详情
品相描述:全新
商品描述
作者简介 Andrew Glassner博士是一位作家,同时也是计算机交互、图形学领域的顾问。他于1978年开始从事3D计算机绘图工作,在NYIT计算机图形实验室、凯斯西储大学、IBM TJ Watson研究实验室、代尔夫特理工大学、贝尔通信研究、施乐帕克研究中心和微软研究院等公司进行了相关研究。《纽约时报》曾评价他为“计算机图形研究领域最受尊敬的天才之一。” 目录 上册 第 1章 机器学习与深度学习入门1 1.1 为什么这一章出现在这里1 1.1.1 从数据中提取含义1 1.1.2 专家系统3 1.2 从标记数据中学习4 1.2.1 一种学习策略5 1.2.2 一种计算机化的学习策略6 1.2.3 泛化8 1.2.4 让我们仔细看看学习过程9 1.3 监督学习10 1.3.1 分类10 1.3.2 回归11 1.4 无监督学习12 1.4.1 聚类13 1.4.2 降噪13 1.4.3 降维14 1.5 生成器16 1.6 强化学习18 1.7 深度学习19 1.8 接下来会讲什么22 参考资料22 第 2章 随机性与基础统计学24 2.1 为什么这一章出现在这里24 2.2 随机变量24 2.3 一些常见的分布29 2.3.1 均匀分布30 2.3.2 正态分布31 2.3.3 伯努利分布34 2.3.4 多项式分布34 2.3.5 期望值35 2.4 独立性35 2.5 抽样与放回36 2.5.1 有放回抽样36 2.5.2 无放回抽样37 2.5.3 做选择38 2.6 Bootstrapping算法38 2.7 高维空间41 2.8 协方差和相关性43 2.8.1 协方差43 2.8.2 相关性44 2.9 Anscombe四重奏47 参考资料48 第3章 概率50 3.1 为什么这一章出现在这里50 3.2 飞镖游戏50 3.3 初级概率学52 3.4 条件概率52 3.5 联合概率55 3.6 边际概率57 3.7 测量的正确性58 3.7.1 样本分类58 3.7.2 混淆矩阵60 3.7.3 混淆矩阵的解释62 3.7.4 允许错误分类64 3.7.5 准确率65 3.7.6 精度66 3.7.7 召回率67 3.7.8 关于精度和召回率68 3.7.9 其他方法69 3.7.10 同时使用精度和召回率71 3.7.11 f1分数72 3.8 混淆矩阵的应用73 参考资料77 第4章 贝叶斯定理78 4.1 为什么这一章出现在这里78 4.2 频率论者法则以及贝叶斯法则78 4.2.1 频率论者法则79 4.2.2 贝叶斯法则79 4.2.3 讨论79 4.3 抛硬币80 4.4 这枚硬币公平吗81 4.4.1 贝叶斯定理86 4.4.2 贝叶斯定理的注意事项87 4.5 生活中的贝叶斯定理89 4.6 重复贝叶斯定理91 4.6.1 后验-先验循环92 4.6.2 例子:挑到的是哪种硬币93 4.7 多个假设97 参考资料101 第5章 曲线和曲面102 5.1 为什么这一章出现在这里102 5.2 引言102 5.3 导数103 5.4 梯度108 参考资料112 第6章 信息论113 6.1 为什么这一章出现在这里113 6.2 意外程度与语境113 6.2.1 意外程度114 6.2.2 语境114 6.3 用比特作为单位115 6.4 衡量信息116 6.5 事件的大小117 6.6 自适应编码117 6.7 熵122 6.8 交叉熵123 6.8.1 两种自适应编码123 6.8.2 混合编码125 6.9 KL散度127 参考资料128 第7章 分类130 7.1 为什么这一章出现在这里130 7.2 二维分类130 7.3 二维多分类134 7.4 多维二元分类135 7.4.1 one-versus-rest135 7.4.2 one-versus-one136 7.5 聚类138 7.6 维度灾难141 参考资料149 第8章 训练与测试150 8.1 为什么这一章出现在这里150 8.2 训练150 8.3 测试数据153 8.4 验证数据156 8.5 交叉验证157 8.6 对测试结果的利用160 参考资料161 第9章 过拟合与欠拟合162 9.1 为什么这一章出现在这里162 9.2 过拟合与欠拟合162 9.2.1 过拟合162 9.2.2 欠拟合164 9.3 过拟合数据164 9.4 及早停止167 9.5 正则化168 9.6 偏差与方差169 9.6.1 匹配潜在数据170 9.6.2 高偏差,低方差172 9.6.3 低偏差,高方差173 9.6.4 比较这些曲线173 9.7 用贝叶斯法则进行线拟合175 参考资料179 第 10章 神经元181 10.1 为什么这一章出现在这里181 10.2 真实神经元181 10.3 人工神经元182 10.3.1 感知机183 10.3.2 感知机的历史183 10.3.3 现代人工神经元184 10.4 小结188 参考资料188 第 11章 学习与推理190 11.1 为什么这一章出现在这里190 11.2 学习的步骤190 11.2.1 表示190 11.2.2 评估192 11.2.3 优化193 11.3 演绎和归纳193 11.4 演绎194 11.5 归纳199 11.5.1 机器学习中的归纳术语201 11.5.2 归纳谬误202 11.6 组合推理203 11.7 操作条件204 参考资料206 第 12章 数据准备208 12.1 为什么这一章出现在这里208 12.2 数据变换208 12.3 数据类型210 12.4 数据清理基础212 12.4.1 数据清理212 12.4.2 现实中的数据清理213 12.5 归一化和标准化213 12.5.1 归一化213 12.5.2 标准化214 12.5.3 保存数据的转换方式215 12.5.4 转换方式216 12.6 特征选择217 12.7 降维217 12.7.1 主成分分析217 12.7.2 图像的标准化和PCA222 12.8 转换226 12.9 切片处理229 12.9.1 逐样本处理230 12.9.2 逐特征处理230 12.9.3 逐元素处理231 12.10 交叉验证转换232 参考资料234 第 13章 分类器236 13.1 为什么这一章出现在这里236 13.2 分类器的种类236 13.3 k近邻法237 13.4 支持向量机241 13.5 决策树247 13.5.1 构建决策树250 13.5.2 分离节点253 13.5.3 控制过拟合255 13.6 朴素贝叶斯255 13.7 讨论259 参考资料260 第 14章 集成算法261 14.1 为什么这一章出现在这里261 14.2 集成方法261 14.3 投票262 14.4 套袋算法262 14.5 随机森林264 14.6 极端随机树265 14.7 增强算法265 参考资料270 第 15章 scikit-learn272 15.1 为什么这一章出现在这里272 15.2 介绍273 15.3 Python 约定273 15.4 估算器276 15.4.1 创建276 15.4.2 学习fit()用法277 15.4.3 用predict()预测278 15.4.4 decision_function(),predict_proba()279 15.5 聚类279 15.6 变换282 15.7 数据精化286 15.8 集成器288 15.9 自动化290 15.9.1 交叉验证290 15.9.2 超参数搜索292 15.9.3 枚举型网格搜索294 15.9.4 随机型网格搜索300 15.9.5 pipeline300 15.9.6 决策边界307 15.9.7 流水线式变换308 15.10 数据集309 15.11 实用工具311 15.12 结束语312 参考资料312 第 16章 前馈网络314 16.1 为什么这一章出现在这里314 16.2 神经网络图314 16.3 同步与异步流316 16.4 权重初始化317 参考资料320 第 17章 激活函数321 17.1 为什么这一章出现在这里321 17.2 激活函数可以做什么321 17.3 基本的激活函数324 17.3.1 线性函数324 17.3.2 阶梯状函数325 17.4 阶跃函数325 17.5 分段线性函数327 17.6 光滑函数329 17.7 激活函数画廊333 17.8 归一化指数函数333 参考资料335 第 18章 反向传播336 18.1 为什么这一章出现在这里336 18.2 一种非常慢的学习方式337 18.2.1 缓慢的学习方式339 18.2.2 更快的学习方式340 18.3 现在没有激活函数341 18.4 神经元输出和网络误差342 18.5 微小的神经网络345 18.6 第 1步:输出神经元的delta347 18.7 第 2步:使用delta改变权重353 18.8 第3步:其他神经元的delta356 18.9 实际应用中的反向传播359 18.10 使用激活函数363 18.11 学习率367 18.12 讨论374 18.12.1 在一个地方的反向传播374 18.12.2 反向传播不做什么374 18.12.3 反向传播做什么375 18.12.4 保持神经元快乐375 18.12.5 小批量377 18.12.6 并行更新378 18.12.7 为什么反向传播很有吸引力378 18.12.8 反向传播并不是有保证的379 18.12.9 一点历史379 18.12.10 深入研究数学380 参考资料381 第 19章 优化器383 19.1 为什么这一章出现在这里383 19.2 几何误差383 19.2.1 最小值、最大值、平台和鞍部383 19.2.2 作为二维曲线的误差386 19.3 调整学习率388 19.3.1 固定大小的更新388 19.3.2 随时间改变学习率394 19.3.3 衰减规划396 19.4 更新策略398 19.4.1 批梯度下降398 19.4.2 随机梯度下降400 19.4.3 mini batch梯度下降401 19.5 梯度下降变体403 19.5.1 动量403 19.5.2 Nesterov动量408 19.5.3 Adagrad410 19.5.4 Adadelta和RMSprop411 19.5.5 Adam413 19.6 优化器选择414 参考资料415 下册 第 20章 深度学习417 20.1 为什么这一章出现在这里417 20.2 深度学习概述417 20.3 输入层和输出层419 20.3.1 输入层419 20.3.2 输出层420 20.4 深度学习层纵览420 20.4.1 全连接层421 20.4.2 激活函数421 20.4.3 dropout422 20.4.4 批归一化423 20.4.5 卷积层424 20.4.6 池化层425 20.4.7 循环层426 20.4.8 其他工具层427 20.5 层和图形符号总结428 20.6 一些例子429 20.7 构建一个深度学习器434 20.8 解释结果435 参考资料440 第 21章 卷积神经网络441 21.1 为什么这一章出现在这里441 21.2 介绍441 21.2.1 “深度”的两重含义442 21.2.2 放缩后的值之和443 21.2.3 权重共享445 21.2.4 局部感知域446 21.2.5 卷积核447 21.3 卷积447 21.3.1 过滤器450 21.3.2 复眼视图452 21.3.3 过滤器的层次结构453 21.3.4 填充458 21.3.5 步幅459 21.4 高维卷积462 21.4.1 具有多个通道的过滤器463 21.4.2 层次结构的步幅465 21.5 一维卷积466 21.6 1×1卷积466 21.7 卷积层468 21.8 转置卷积469 21.9 卷积网络样例472 21.9.1 VGG16475 21.9.2 有关过滤器的其他内容:第 1部分477 21.9.3 有关过滤器的其他内容:第 2部分481 21.10 对手483 参考资料485 第 22章 循环神经网络488 22.1 为什么这一章出现在这里488 22.2 引言489 22.3 状态490 22.4 RNN单元的结构494 22.4.1 具有更多状态的单元496 22.4.2 状态值的解释498 22.5 组织输入498 22.6 训练RNN500 22.7 LSTM和GRU502 22.7.1 门503 22.7.2 LSTM505 22.8 RNN的结构508 22.8.1 单个或多个输入和输出508 22.8.2 深度RNN510 22.8.3 双向RNN511 22.8.4 深度双向RNN512 22.9 一个例子513 参考资料517 第 23章 Keras第 1部分520 23.1 为什么这一章出现在这里520 23.1.1 本章结构520 23.1.2 笔记本521 23.1.3 Python警告521 23.2 库和调试521 23.2.1 版本和编程风格522 23.2.2 Python编程和调试522 23.3 概述523 23.3.1 什么是模型524 23.3.2 张量和数组524 23.3.3 设置Keras524 23.3.4 张量图像的形状525 23.3.5 GPU和其他加速器527 23.4 准备开始528 23.5 准备数据530 23.5.1 重塑530 23.5.2 加载数据536 23.5.3 查看数据537 23.5.4 训练-测试拆分541 23.5.5 修复数据类型541 23.5.6 归一化数据542 23.5.7 固定标签544 23.5.8 在同一个地方进行预处理547 23.6 制作模型548 23.6.1 将网格转换为列表548 23.6.2 创建模型550 23.6.3 编译模型554 23.6.4 模型创建摘要556 23.7 训练模型557 23.8 训练和使用模型559 23.8.1 查看输出560 23.8.2 预测562 23.8.3 训练历史分析566 23.9 保存和加载567 23.9.1 将所有内容保存在一个文件中567 23.9.2 仅保存权重568 23.9.3 仅保存架构568 23.9.4 使用预训练模型569 23.9.5 保存预处理步骤569 23.10 回调函数570 23.10.1 检查点570 23.10.2 学习率572 23.10.3 及早停止573 参考资料575 第 24章 Keras第 2部分577 24.1 为什么这一章出现在这里577 24.2 改进模型577 24.2.1 超参数计数577 24.2.2 改变一个超参数578 24.2.3 其他改进方法580 24.2.4 再增加一个全连接层581 24.2.5 少即是多582 24.2.6 添加dropout584 24.2.7 观察587 24.3 使用scikit-learn588 24.3.1 Keras包装器588 24.3.2 交叉验证591 24.3.3 归一化交叉验证594 24.3.4 超参数搜索596 24.4 卷积网络602 24.4.1 工具层603 24.4.2 为CNN准备数据604 24.4.3 卷积层606 24.4.4 对MNIST使用卷积611 24.4.5 模式619 24.4.6 图像数据增强621 24.4.7 合成数据623 24.4.8 CNN的参数搜索624 24.5 RNN624 24.5.1 生成序列数据625 24.5.2 RNN数据准备627 24.5.3 创建并训练RNN631 24.5.4 分析RNN性能634 24.5.5 一个更复杂的数据集639 24.5.6 深度RNN641 24.5.7 更多数据的价值643 24.5.8 返回序列646 24.5.9 有状态的RNN649 24.5.10 时间分布层650 24.5.11 生成文本653 24.6 函数式API658 24.6.1 输入层659 24.6.2 制作函数式模型660 参考资料664 第 25章 自编码器665 25.1 为什么这一章出现在这里665 25.2 引言666 25.2.1 有损编码和无损编码666 25.2.2 区域编码667 25.2.3 混合展示669 25.3 最简单的自编码器671 25.4 更好的自编码器675 25.5 探索自编码器677 25.5.1 深入地观察隐藏变量677 25.5.2 参数空间679 25.5.3 混合隐藏变量683 25.5.4 对不同类型的输入进行预测684 25.6 讨论685 25.7 卷积自编码器685 25.7.1 混合卷积自编码器中的隐藏变量688 25.7.2 在CNN中对不同类型的输入进行预测689 25.8 降噪689 25.9 VAE691 25.9.1 隐藏变量的分布691 25.9.2 VAE的结构692 25.10 探索VA
— 没有更多了 —
以下为对购买帮助不大的评价