深度学习:从基础到实践(全2册)
全新正版 极速发货
¥
85.82
4.3折
¥
199.8
全新
库存53件
作者 (美)安德鲁·格拉斯纳
出版社 人民邮电出版社
ISBN 9787115554512
出版时间 2022-12
装帧 平装
开本 16开
定价 199.8元
货号 1202771567
上书时间 2024-08-07
商品详情
品相描述:全新
商品描述
作者简介 Andrew Glassner博士是一位作家,同时也是计算机交互、图形学领域的顾问。他于1978年开始从事3D计算机绘图工作,在NYIT计算机图形实验室、凯斯西储大学、IBM TJ Watson研究实验室、代尔夫特理工大学、贝尔通信研究、施乐帕克研究中心和微软研究院等公司进行了相关研究。《纽约时报》曾评价他为“计算机图形研究领域最受尊敬的天才之一。” 目录 《深度学习:从基础到实践.上册》 第1章机器学习与深度学习入门1 1.1为什么这一章出现在这里1 1.1.1从数据中提取含义1 1.1.2专家系统3 1.2从标记数据中学习4 1.2.1一种学习策略5 1.2.2一种计算机化的学习策略6 1.2.3泛化8 1.2.4让我们仔细看看学习过程9 1.3监督学习10 1.3.1分类10 1.3.2回归11 1.4无监督学习12 1.4.1聚类13 1.4.2降噪13 1.4.3降维14 1.5生成器16 1.6强化学习18 1.7深度学习19 1.8接下来会讲什么22 参考资料22 第2章随机性与基础统计学24 2.1为什么这一章出现在这里24 2.2随机变量24 2.3一些常见的分布29 2.3.1均匀分布30 2.3.2正态分布31 2.3.3伯努利分布34 2.3.4多项式分布34 2.3.5期望值35 2.4独立性35 2.5抽样与放回36 2.5.1有放回抽样36 2.5.2无放回抽样37 2.5.3做选择38 2.6Bootstrapping算法38 2.7高维空间41 2.8协方差和相关性43 2.8.1协方差43 2.8.2相关性44 2.9Anscombe四重奏47 参考资料48 第3章概率50 3.1为什么这一章出现在这里50 3.2飞镖游戏50 3.3初级概率学52 3.4条件概率52 3.5联合概率55 3.6边际概率57 3.7测量的正确性58 3.7.1样本分类58 3.7.2混淆矩阵60 3.7.3混淆矩阵的解释62 3.7.4允许错误分类64 3.7.5准确率65 3.7.6精度66 3.7.7召回率67 3.7.8关于精度和召回率68 3.7.9其他方法69 3.7.10同时使用精度和召回率71 3.7.11f1分数72 3.8混淆矩阵的应用73 参考资料77 第4章贝叶斯定理78 4.1为什么这一章出现在这里78 4.2频率论者法则以及贝叶斯法则78 4.2.1频率论者法则79 4.2.2贝叶斯法则79 4.2.3讨论79 4.3抛硬币80 4.4这枚硬币公平吗81 4.4.1贝叶斯定理86 4.4.2贝叶斯定理的注意事项87 4.5生活中的贝叶斯定理89 4.6重复贝叶斯定理91 4.6.1后验-先验循环92 4.6.2例子:挑到的是哪种硬币93 4.7多个假设97 参考资料101 第5章曲线和曲面102 5.1为什么这一章出现在这里102 5.2引言102 5.3导数103 5.4梯度108 参考资料112 第6章信息论113 6.1为什么这一章出现在这里113 6.2意外程度与语境113 6.2.1意外程度114 6.2.2语境114 6.3用比特作为单位115 6.4衡量信息116 6.5事件的大小117 6.6自适应编码117 6.7熵122 6.8交叉熵123 6.8.1两种自适应编码123 6.8.2混合编码125 6.9KL散度127 参考资料128 第7章分类130 7.1为什么这一章出现在这里130 7.2二维分类130 7.3二维多分类134 7.4多维二元分类135 7.4.1one-versus-rest135 7.4.2one-versus-one136 7.5聚类138 7.6维度灾难141 参考资料149 第8章训练与测试150 8.1为什么这一章出现在这里150 8.2训练150 8.3测试数据153 8.4验证数据156 8.5交叉验证157 8.6对测试结果的利用160 参考资料161 第9章过拟合与欠拟合162 9.1为什么这一章出现在这里162 9.2过拟合与欠拟合162 9.2.1过拟合162 9.2.2欠拟合164 9.3过拟合数据164 9.4及早停止167 9.5正则化168 9.6偏差与方差169 9.6.1匹配潜在数据170 9.6.2高偏差,低方差172 9.6.3低偏差,高方差173 9.6.4比较这些曲线173 9.7用贝叶斯法则进行线拟合175 参考资料179 第10章神经元181 10.1为什么这一章出现在这里181 10.2真实神经元181 10.3人工神经元182 10.3.1感知机183 10.3.2感知机的历史183 10.3.3现代人工神经元184 10.4小结188 参考资料188 第11章学习与推理190 11.1为什么这一章出现在这里190 11.2学习的步骤190 11.2.1表示190 11.2.2评估192 11.2.3优化193 11.3演绎和归纳193 11.4演绎194 11.5归纳199 11.5.1机器学习中的归纳术语201 11.5.2归纳谬误202 11.6组合推理203 11.7操作条件204 参考资料206 第12章数据准备208 12.1为什么这一章出现在这里208 12.2数据变换208 12.3数据类型210 12.4数据清理基础212 12.4.1数据清理212 12.4.2现实中的数据清理213 12.5归一化和标准化213 12.5.1归一化213 12.5.2标准化214 12.5.3保存数据的转换方式215 12.5.4转换方式216 12.6特征选择217 12.7降维217 12.7.1主成分分析217 12.7.2图像的标准化和PCA222 12.8转换226 12.9切片处理229 12.9.1逐样本处理230 12.9.2逐特征处理230 12.9.3逐元素处理231 12.10交叉验证转换232 参考资料234 第13章分类器236 13.1为什么这一章出现在这里236 13.2分类器的种类236 13.3k近邻法237 13.4支持向量机241 13.5决策树247 13.5.1构建决策树250 13.5.2分离节点253 13.5.3控制过拟合255 13.6朴素贝叶斯255 13.7讨论259 参考资料260 第14章集成算法261 14.1为什么这一章出现在这里261 14.2集成方法261 14.3投票262 14.4套袋算法262 14.5随机森林264 14.6特别随机树265 14.7增强算法265 参考资料270 第15章scikit-learn272 15.1为什么这一章出现在这里272 15.2介绍273 15.3Python约定273 15.4估算器276 15.4.1创建276 15.4.2学习fit()用法277 15.4.3用predict()预测278 15.4.4decision_function(),predict_proba()279 15.5聚类279 15.6变换282 15.7数据精化286 15.8集成器288 15.9自动化290 15.9.1交叉验证290 15.9.2超参数搜索292 15.9.3枚举型网格搜索294 15.9.4随机型网格搜索300 15.9.5pipeline300 15.9.6决策边界307 15.9.7流水线式变换308 15.10数据集309 15.11实用工具311 15.12结束语312 参考资料312 第16章前馈网络314 16.1为什么这一章出现在这里314 16.2神经网络图314 16.3同步与异步流316 16.4权重初始化317 参考资料320 第17章激活函数321 17.1为什么这一章出现在这里321 17.2激活函数可以做什么321 17.3基本的激活函数324 17.3.1线性函数324 17.3.2阶梯状函数325 17.4阶跃函数325 17.5分段线性函数327 17.6光滑函数329 17.7激活函数画廊333 17.8归一化指数函数333 参考资料335 第18章反向传播336 18.1为什么这一章出现在这里336 18.2一种非常慢的学习方式337 18.2.1缓慢的学习方式339 18.2.2更快的学习方式340 18.3现在没有激活函数341 18.4神经元输出和网络误差342 18.5微小的神经网络345 18.6第1步:输出神经元的delta347 18.7第2步:使用delta改变权重353 18.8第3步:其他神经元的delta356 18.9实际应用中的反向传播359 18.10使用激活函数363 18.11学习率367 18.12讨论374 18.12.1在一个地方的反向传播374 18.12.2反向传播不做什么374 18.12.3反向传播做什么375 18.12.4保持神经元快乐375 18.12.5小批量377 18.12.6并行更新378 18.12.7为什么反向传播很有吸引力378 18.12.8反向传播并不是有保证的379 18.12.9一点历史379 18.12.10深入研究数学380 参考资料381 第19章优化器383 19.1为什么这一章出现在这里383 19.2几何误差383 19.2.1最小值、优选值、平台和鞍部383 19.2.2作为二维曲线的误差386 19.3调整学习率388 19.3.1固定大小的更新388 19.3.2随时间改变学习率394 19.3.3衰减规划396 19.4更新策略398 19.4.1批梯度下降398 19.4.2随机梯度下降400 19.4.3minibatch梯度下降401 19.5梯度下降变体403 19.5.1动量403 19.5.2Nesterov动量408 19.5.3Adagrad410 19.5.4Adadelta和RMSprop411 19.5.5Adam413 19.6优化器选择414 参考资料415 《深度学习:从基础到实践.下册》 第20章深度学习417 20.1为什么这一章出现在这里417 20.2深度学习概述417 20.3输入层和输出层419 20.3.1输入层419 20.3.2输出层420 20.4深度学习层纵览420 20.4.1全连接层421 20.4.2激活函数421 20.4.3dropout422 20.4.4批归一化423 20.4.5卷积层424 20.4.6池化层425 20.4.7循环层426 20.4.8其他工具层427 20.5层和图形符号总结428 20.6一些例子429 20.7构建一个深度学习器434 20.8解释结果435 参考资料440 第21章卷积神经网络441 21.1为什么这一章出现在这里441 21.2介绍441 21.2.1“深度”的两重含义442 21.2.2放缩后的值之和443 21.2.3权重共享445 21.2.4局部感知域446 21.2.5卷积核447 21.3卷积447 21.3.1过滤器450 21.3.2复眼视图452 21.3.3过滤器的层次结构453 21.3.4填充458 21.3.5步幅459 21.4高维卷积462 21.4.1具有多个通道的过滤器463 21.4.2层次结构的步幅465 21.5一维卷积466 21.61×1卷积466 21.7卷积层468 21.8转置卷积469 21.9卷积网络样例472 21.9.1VGG16475 21.9.2有关过滤器的其他内容:第1部分477 21.9.3有关过滤器的其他内容:第2部分481 21.10对手483 参考资料485 第22章循环神经网络488 22.1为什么这一章出现在这里488 22.2引言489 22.3状态490 22.4RNN单元的结构494 22.4.1具有更多状态的单元496 22.4.2状态值的解释498 22.5组织输入498 22.6训练RNN500 22.7LSTM和GRU502 22.7.1门503 22.7.2LSTM505 22.8RNN的结构508 22.8.1单个或多个输入和输出508 22.8.2深度RNN510 22.8.3双向RNN511 22.8.4深度双向RNN512 22.9一个例子513 参考资料517 第23章Keras第1部分520 23.1为什么这一章出现在这里520 23.1.1本章结构520 23.1.2笔记本521 23.1.3Python警告521 23.2库和调试521 23.2.1版本和编程风格522 23.2.2Python编程和调试522 23.3概述523 23.3.1什么是模型524 23.3.2张量和数组524 23.3.3设置Keras524 23.3.4张量图像的形状525 23.3.5GPU和其他加速器527 23.4准备开始528 23.5准备数据530 23.5.1重塑530 23.5.2加载数据536 23.5.3查看数据537 23.5.4训练-测试拆分541 23.5.5修复数据类型541 23.5.6归一化数据542 23.5.7固定标签544 23.5.8在同一个地方进行预处理547 23.6制作模型548 23.6.1将网格转换为列表548 23.6.2创建模型550 23.6.3编译模型554 23.6.4模型创建摘要556 23.7训练模型557 23.8训练和使用模型559 23.8.1查看输出560 23.8.2预测562 23.8.3训练历史分析566 23.9保存和加载567 23.9.1将所有内容保存在一个文件中567 23.9.2仅保存权重568 23.9.3仅保存架构568 23.9.4使用预训练模型569 23.9.5保存预处理步骤569 23.10回调函数570 23.10.1检查点570 23.10.2学习率572 23.10.3及早停止573 参考资料575 第24章Keras第2部分577 24.1为什么这一章出现在这里577 24.2改进模型577 24.2.1超参数计数577 24.2.2改变一个超参数578 24.2.3其他改进方法580 24.2.4再增加一个全连接层581 24.2.5少即是多582 24.2.6添加dropout584 24.2.7观察587 24.3使用scikit-learn588 24.3.1Keras包装器588 24.3.2交叉验证591 24.3.3归一化交叉验证594 24.3.4超参数搜索596 24.4卷积网络602 24.4.1工具层603 24.4.2为CNN准备数据604 24.4.3卷积层606 24.4.4对MNIST使用卷积611 24.4.5模式619 24.4.6图像数据增强621 24.4.7合成数据623 24.4.8CNN的参数搜索624 24.5RNN624 24.5.1生成序列数据625 24.5.2RNN数据准备627 24.5.3创建并训练RNN631 24.5.4分析RNN性能634 24.5.5一个更复杂的数据集639 24.5.6深度RNN641 24.5.7更多数据的价值643 24.5.8返回序列646 24.5.9有状态的RNN649 24.5.10时间分布层650 24.5.11生成文本653 24.6函数式API658 24.6.1输入层659 24.6.2制作函数式模型660 参考资料664 第25章自编码器665 25.1为什么这一章出现在这里665 25.2引言666 25.2.1有损编码和无损编码666 25.2.2区域编码667 25.2.3混合展示669 25.3最简单的自编码器671 25.4更好的自编码器675 25.5探索自编码器677 25.5.1深入地观察隐藏变量677 25.5.2参数空间679 25.5.3混合隐藏变量683 25.5.4对不同类型的输入进行预测684 25.6讨论685 25.7卷积自编码器685 25.7.1混合卷积自编码器中的隐藏变量688 25.7.2在CNN中对不同类型的输入进行预测689 25.8降噪689 25.9VAE691 25.9.1隐藏变量的分布691 25.9.2VAE的结构692 25.10探索VAE697 参考资料703 第26章强化学习704 26.1为什么这一章出现在这里704 26.2目标704 26.3强化学习的结构708 26.3.1步骤1:智能体选择一个动作709 26.3.2步骤2:环境做出响应710 26.3.3步骤3:智能体进行自我更新711 26.3.4简单版本的变体712 26.3.5回到主体部分713 26.3.6保存经验714 26.3.7奖励714 26.4翻转718 26.5L学习719 26.6Q学习728 26.6.1Q值与更新729 26.6.2Q学习策略731 26.6.3把所有东西放在一起732 26.6.4显而易见而又被忽略的事实733 26.6.5Q
— 没有更多了 —
本店暂时无法向该地区发货
以下为对购买帮助不大的评价