• 集成学习实战
21年品牌 40万+商家 超1.5亿件商品

集成学习实战

72.86 5.7折 128 九五品

仅1件

北京通州
认证卖家担保交易快速发货售后保障

作者[美]高塔姆·库纳普利(GautamKunapuli)著郭涛

出版社清华大学出版社

ISBN9787302660927

出版时间2024-07

版次1

装帧平装

开本16开

纸张胶版纸

定价128元

上书时间2024-12-13

纵列風

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:九五品
商品描述
基本信息
书名:集成学习实战
定价:128.00元
作者:[美]高塔姆·库纳普利(GautamKunapuli)著郭涛 译
出版社:清华大学出版社
出版日期:2024-07-01
ISBN:9787302660927
字数:
页码:
版次:
装帧:平装
开本:16开
商品重量:
编辑推荐
目前,关于集成学习著作比较少,主要是周志华教授团队编写的EnsembleMethods Foundations and Algorithms。不过,该书的出版时间较早(2012年出版英文,2020年出版了中文译著),未涉及近10年来集成学习的前沿理论和技术;另外该书主要偏向前沿理论,缺少算法实现和案例配套。《集成学习实战》的引进可谓恰逢其时,填补了集成学习领域著作方面的不足。本书图文并茂地对深奥的集成学习理论和方法进行描述,并结合大量的案例和应用程序,引导读者边思考边实践,从而逐步加深对集成学习的理解,并将这些新方法、新理论和新思想用于自己的研究。本书梳理了集成学习近20年来的前沿理论和技术,主要从集成学习基础知识、集成方式和集成学习数据集制作、特征提取和可解释性三个方面进行了专题讨论,还讨论集成学习理论以及与概率机器学习和深度学习的结合策略。本书包含大量的图、案例以及Python代码实现,读者可以一边阅读一边动手实践。本书面向计算机、人工智能和大数据专业的高年级本科生和研究生,也面向对机器学习与集成学习感兴趣的研究人员和企业工程师。
内容提要
集成学习通过自动对比多个模型的输出,将输出结合起来,融合成强大的集成模型,得出结果。集成学习发挥“集体智慧”,结果更准确,克服了单一模型的局限性。这种创新方法能够综合多个视角的响应;即使在没有大规模数据集的情况下,也能给出可靠的预测结果。《集成学习实战》呈现同时应用多种机器学习方法的实用技巧。每章都列举一个独特案例(如医学诊断、情感分析等),展示一个功能完备的集成方法。本书不探讨深奥的数学知识,所讲内容浅显易懂,代码丰富,供你轻松进行实验!主要内容 Bagging法、提升法和梯度提升法 分类、回归和检索方法 集成方法的模型和决策可解释性 特征工程和集成多样性
目录
第I部分 集成学习基础知识章 集成方法:炒作还是福音·   31.1 集成方法:集体智慧  41.2 关注集成学习原因   61.3 单个模型中的拟合度与复杂性  81.3.1 决策树回归   81.3.2 支持向量回归   121.4 个集成模型   151.5 集成方法的术语和分类   191.6 小结   21第II部分 基本集成方法第2章 同质并行集成:Bagging法和随机森林   252.1 并行集成   262.2 Bagging法:Bootstrap结合算法  272.2.1 直觉:重采样和模型结合   282.2.2 实现Bagging法  312.2.3 使用scikit-learn实现Bagging法   332.2.4 使用并行化进行更快的训练  352.3 随机森林   362.3.1 随机决策树   362.3.2 使用scikit-learn实现随机森林  382.3.3 特征重要性   392.4 更多同质并行集成·   402.4.1 Pasting   402.4.2 随机子空间和random patch法  412.4.3 极度随机树   422.5 案例研究:乳腺癌诊断   432.5.1 加载和预处理   432.5.2 Bagging法、随机森林和极度随机树  442.5.3 随机森林中的特征重要性   472.6 小结   50第3章 异质并行集成:结合强学习器   533.1 异质集成的基础估计器   543.1.1 拟合基础估计器   553.1.2 基础估计器的单个预测  583.2 通过加权结合预测  603.2.1 多数投票   623.2.2 准确率加权   633.2.3 熵加权法   653.2.4 Dempster-Shafer结合   673.3 通过元学习结合预测   693.3.1 Stacking   703.3.2 通过交叉验证进行Stacking  743.4 案例研究:情感分析   773.4.1 预处理   783.4.2 降低维度   813.4.3 blending分类器  823.5 小结   85第4章 顺序集成:自适应提升   874.1 弱学习器的顺序集成   884.2 AdaBoost:自适应提升   904.2.1 直觉法:使用加权样本进行学习  904.2.2 实现AdaBoost   934.2.3 使用scikit-learn的AdaBoost  994.3 AdaBoost在实践中的应用  1014.3.1 学习率·    1024.3.2 早停和剪枝   1044.4 案例研究:手写数字分类  1064.4.1 利用 t-SNE降维   1074.4.2 提升    1094.5 LogitBoost:使用逻辑损失进行提升  1124.5.1 逻辑损失函数与指数损失函数  1124.5.2 将回归作为分类的弱学习算法  1134.5.3 实现LogitBoost   1134.6 小结   116第5章 顺序集成:梯度提升   1175.1 用梯度下降实现化   1185.1.1 举例说明梯度下降   1195.1.2 在损失函数上进行梯度下降训练   1255.2 梯度提升:梯度下降 提升   1285.2.1 直觉:使用残差学习   1285.2.2 实现梯度提升  1325.2.3 使用scikit-learn进行梯度提升   1365.2.4 基于直方图的梯度提升   1385.3 LightGBM:梯度提升框架   1405.3.1 为何将LightGBM称为“轻量级”  1405.3.2 利用LightGBM进行梯度提升   1425.4 LightGBM在实践中的应用   1435.4.1 学习率   1435.4.2 早停    1465.4.3 自定义损失函数   1485.5 案例研究:文档检索   1515.5.1 LETOR数据集   1515.5.2 使用LightGBM进行文档检索   1535.6 小结   156第6章 顺序集成:牛顿提升   1576.1 化牛顿法   1586.1.1 举例说明牛顿法   1606.1.2 训练过程中的损失函数的牛顿下降·   1656.2 牛顿提升:牛顿法  Boosting  1676.2.1 直觉:使用加权残差进行学习  1676.2.2 直觉:使用正则化损失函数进行学习  1706.2.3 实现牛顿提升  1736.3 XGBoost:牛顿提升框架  1776.3.1 XGBoost的“”之处在哪里?  1786.3.2 XGBoost的牛顿提升   1796.4 XGBoost实践   1816.4.1 学习率   1816.4.2 早停    1846.5 案例研究:文档检索   1856.5.1 LETOR数据集   1856.5.2 使用XGBoost进行文档检索  1866.6 小结   188第III部分 集成之外:将集成方法应用于你的数据第7章 学习连续和计数标签   1937.1 回归的简要回顾   1947.1.1 连续标签的线性回归   1947.1.2 用于计数标签的泊松回归  2007.1.3 用于分类标签的逻辑回归  2037.1.4 广义线性模型  2047.1.5 非线性回归   2057.2 回归的并行集成   2087.2.1 随机森林和极度随机树   2097.2.2 结合回归模型  2127.2.3 Stacking回归模型   2137.3 用于回归的顺序集成   2147.3.1 用于回归的损失和似然函数  2167.3.2 LightGBM和XGBoost的梯度提升  2187.4 案例研究:需求预测   2217.4.1 UCI自行车共享数据集  2227.4.2 GLM和Stacking·    2247.4.3 随机森林和极度随机树   2277.4.4 XGBoost和LightGBM  2287.5 小结   231第8章 学习分类特征   2338.1 编码分类特征   2348.1.1 分类特征的类型   2358.1.2 有序编码和独热编码   2358.1.3 使用目标统计信息进行编码  2388.1.4 类别编码器包  2448.2 CatBoost:有序提升框架  2478.2.1 有序目标统计和有序提升  2478.2.2 无意识决策树  2498.2.3 CatBoost实践  2508.3 案例研究:收入预测   2538.3.1 adult数据集   2548.3.2 创建预处理和建模流程   2568.3.3 类别编码和集成   2598.3.4 有序编码和CatBoost提升  2618.4 编码高基数字符串特征   2638.5 小结   267第9章 集成学习可解释性   2699.1 可解释性的含义   2709.1.1 黑盒与白盒模型   2709.1.2 决策树(和决策规则)   2739.1.3 广义线性模型  2769.2 案例研究:数据驱动的营销  2789.2.1 银行营销数据集   2799.2.2 训练集成   2819.2.3 树集成中的特征重要性   2829.3 全局可解释性的黑盒方法  2839.3.1 排列特征重要性   2849.3.2 部分依赖图   2869.3.3 全局代理模型·   2899.4 适用于局部可解释性的黑盒方法  2929.4.1 借助LIME的局部代理模型  2929.4.2 借助SHAP的局部可解释性  2969.5 白盒集成:训练解释性   3029.5.1 可解释性提升机   3039.5.2 EBM实践   3069.6 小结   309结语    311
作者介绍
Gautam Kunapuli拥有逾15年的学术界和机器学习行业经验,重点研究人机协作学习、基于知识和建议的学习算法,以及针对机器学习难题的可扩展学习。
序言

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP