• 机器学习提升法——理论与算法
21年品牌 40万+商家 超1.5亿件商品

机器学习提升法——理论与算法

全新正版 极速发货

67.99 6.2折 109 全新

库存3件

广东广州
认证卖家担保交易快速发货售后保障

作者(美)罗伯特·夏皮雷,(美)约夫·弗雷德

出版社人民邮电出版社

ISBN9787115535801

出版时间2020-10

装帧平装

开本16开

定价109元

货号1202133928

上书时间2024-08-06

谢岳书店

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
目录
章 引言1

1.1 分类问题与机器学习2

1.2 提升法3

1.2.1 一个“玩具”例子6

1.2.2 算法的实验性能9

1.2.3 一个医学诊断的例子10

1.3 抗过拟合与间隔理论12

1.4 基础理论与算法14

1.5 小结16

1.6 参考资料16

1.7 练习16

部分 算法核心分析

第2章 机器学习基础21

2.1 机器学习直接分析方法21

2.1.1 学习的充分条件21

2.1.2 与另外一种算法的比较25

2.2 通用分析方法26

2.2.1 一个假设26

2.2.2 有限假设空间28

2.2.3 无限假设空间30

2.2.4 更抽象的公式34

2.2.5 一致性假设35

2.2.6 基于压缩的界36

2.2.7 讨论37

2.3 提升法研究基础38

2.3.1 性能的绝对保证 38

2.3.2 弱可学习与提升法40

2.3.3 分析提升法的方法 41

2.4 小结43

2.5 参考资料43

2.6 练习44

第3章 用AdaBoost最小化训练误差46

3.1 AdaBoost算法训练误差的界 46

3.2 弱可学习的充分条件49

3.3 与切诺夫界的关系52

3.4 基学习算法的设计和使用53

3.4.1 使用样本的权重 54

3.4.2 算法设计55

3.4.3 在人脸识别中的应用58

3.5 小结60

3.6 参考资料61

3.7 练习61

第4章 泛化误差的直接界63

4.1 基于VC理论的泛化误差的界63

4.1.1 基本假设63

4.1.2 AdaBoost分类器的形式与复杂度64

4.1.3 有限基假设空间66

4.1.4 无限基分类器空间68

4.2 基于压缩的界70

4.2.1 主要思想70

4.2.2 混合压缩模式71

4.2.3 应用到AdaBoost72

4.3 强学习与弱学习的等价性73

4.4 小结75

4.5 参考资料75

4.6 练习75

第5章 用间隔理论解释提升法的有效性78

5.1 间隔作为置信度的度量79

5.2 泛化误差的基于间隔的分析81

5.2.1 直观感受81

5.2.2 有限基假设空间82

5.2.3 无限基假设空间87

5.3 基于Rademacher复杂度的分析89

5.4 提升法对间隔分布的影响93

5.4.1 AdaBoost间隔的界93

5.4.2 更积极的间隔优选化95

5.4.3 弱可学习的充分必要条件97

5.5 偏差、方差和稳定性98

5.6 与支持向量机的关系102

5.6.1 支持向量机概览102

5.6.2 与提升法的比较105

5.7 间隔的实际应用106

5.7.1 为了获得更高的准确率拒绝低置信度的预测106

5.7.2 主动学习108

5.8 小结110

5.9 参考资料110

5.10 练习111

第二部分 基本观点

第6章 博弈论、在线学习和提升法117

6.1 博弈论117

6.1.1 随机玩法118

6.1.2 序列玩法119

6.1.3 极小极大理论120

6.2 从重复博弈中学习121

6.2.1 学习模型121

6.2.2 基本算法122

6.2.3 分析122

6.2.4 极小极大理论的证明126

6.2.5 一个游戏的近似解127

6.3 在线预测128

6.4 提升法131

6.4.1 提升法和极小极大理论131

6.4.2 提升法的思想133

6.4.3 分析135

6.5 应用于“读心术”游戏136

6.6 小结141

6.7 参考资料141

6.8 练习142

第7章 损失最小化与Boosting算法的泛化145

7.1 AdaBoost的损失函数146

7.2 坐标下降法149

7.2.1 AdaBoost的泛化149

7.2.2 收敛性150

7.2.3 其他损失函数151

7.3 损失最小化不能解释泛化能力152

7.4 泛函梯度下降154

7.4.1 另外一种泛化155

7.4.2 与坐标下降法的关系157

7.4.3 对通用损失函数进行分类和回归158

7.5 逻辑斯蒂回归和条件概率159

7.5.1 逻辑斯蒂回归159

7.5.2 修改AdaBoost用于逻辑斯蒂损失161

7.5.3 估计条件概率164

7.6 正则化166

7.6.1 避免过拟合166

7.6.2 提升法与早停之间的关系169

7.6.3 与间隔优选化的关联172

7.7 应用到数据有限的学习173

7.7.1 引入先验知识173

7.7.2 半监督学习177

7.8 小结179

7.9 参考资料179

7.10 练习180

第8章 提升法、凸优化和信息几何学184

8.1 迭代投影算法184

8.1.1 类欧几里得184

8.1.2 信息论度量187

8.1.3 将AdaBoost看作迭代投影算法188

8.1.4 非空可行集的条件192

8.1.5 用非归一化分布的迭代投影195

8.2 证明AdaBoost的收敛性197

8.2.1 设置197

8.2.2 两个问题合成一个198

8.2.3 证明199

8.2.4 凸对偶204

8.3 与逻辑斯蒂回归的统一205

8.4 物种分布建模的应用207

8.5 小结210

8.6 参考资料210

8.7 练习211

第三部分 算法扩展

第9章 基于置信度的弱预测219

9.1 框架220

9.2 算法设计的通用方法222

9.2.1 一般情况下如何选择αt222

9.2.2 二分类预测223

9.2.3 有限范围的预测224

9.2.4 可弃权的弱假设225

9.2.5 将参数αt隐入ht228

9.2.6 域分割的弱假设228

9.3 学习规则集231

9.4 交替决策树233

9.5 小结239

9.6 参考资料239

9.7 练习239

0章 多类别分类问题243

10.1 多类别问题的直接扩展244

10.2 一对其他归约和多标签分类248

10.2.1 多标签分类249

10.2.2 汉明损失249

10.2.3 与“1错误”和单标签分类的关系252

10.3 应用到语义分类问题253

10.4 应用输出编码的通用约简257

10.4.1 多类别到多标签257

10.4.2 更通用的编码261

10.5 小结267

10.6 参考资料267

10.7 练习268

1章 排序272

11.1 排序问题的形式化框架272

11.2 排序问题的提升法275

11.2.1 RankBoost275

11.2.2 选择αt和弱学习器的标准277

11.2.3 RankBoost和AdaBoost的损失函数278

11.3 提高效率的方法280

11.3.1 约简为二分类问题280

11.3.2 层级反馈282

11.3.3 准层级反馈284

11.4 多类别、多标签分类288

11.5 应用290

11.5.1 解析英文句子290

11.5.2 找到癌症基因292

11.6 小结294

11.7 参考资料294

11.8 练习295第四部分不错理论

2章达到尽可能高的准确度301

12.1 最优分类与风险最小化302

12.2 接近最优风险305

12.2.1 基假设的表达306

12.2.2 证明概览306

12.2.3 正式的证明308

12.2.4 AdaBoost最小化经验风险的速度的界310

12.2.5 夹紧效果的界315

12.2.6 经验风险和真实风险之间的关系315

12.2.7 完成证明318

12.2.8 与基于间隔的界的对比318

12.3 风险最小化如何导致较差的准确性319

12.3.1 构建基于置信度的假设319

12.3.2 用二分类器进行构建322

12.3.3 均匀噪声的困难324

12.4 小结326

12.5 参考资料326

12.6 练习327

3章 效率最优的提升法332

13.1 BBM算法333

13.1.1 投票博弈333

13.1.2 一个筹码游戏335

13.1.3 推导最优博弈336

13.1.4 一个容易处理的近似337

13.1.5 算法341

13.1.6 分析343

13.1.7 博弈论优化344

13.2 最优泛化误差345

13.2.1 BBM的上界346

13.2.2 通用下界346

13.2.3 构建347

13.2.4 分析概述352

13.2.5 将提升器看作固定的函数353

13.2.6 误差的分析355

13.2.7 将所有东西结合到一起358

13.3 与AdaBoost的关系359

13.3.1 误差界的比较359

13.3.2 由BBM派生出AdaBoost360

13.3.3 权重的比较361

13.4 小结363

13.5 参考资料363

13.6 练习363

4章 连续时间下的提升法367

14.1 连续时间极限下的适应性367

14.1.1 主要思想368

14.1.2 连续时间下的极限369

14.1.3 另一个推导过程372

14.2 BrownBoost375

14.2.1 算法375

14.2.2 分析377

14.3 AdaBoost作为BrownBoost的一个特例381

14.4 含噪声的数据的实验387

14.5 小结389

14.6 参考资料389

14.7 练习390

附录A 符号、定义及其数学背景393

A.1 通用符号393

A.2 范式394

A.3 优选值、最小值、上确界、下确界394

A.4 极限395

A.5 连续性、闭集和紧性396

A.6 导数、梯度和泰勒定理397

A.7 凸集398

A.8 拉格朗日乘子法398

A.9 分布和中心极限定理399

内容摘要
本书主要介绍一种机器学习算法——提升法,主要关注其基础理论和算法,也兼顾了应用。
    全书共14章,分为4个部分。首先给出机器学习算法及其分析的概要介绍,然后部分重点探究了提升法的核心理论及其泛化能力。第二部分主要介绍了有助于理解和解释提升法的其他理论,包括基于博弈论的解释、贪心算法、迭代投射算法,并与信息几何学和凸优化建立了联系。第三部分主要介绍利用基于置信度的弱预测的AdaBoost算法的实用扩展,并用于解决多类别分类问题和排序问题。第四部分讨论了不错理论话题,包括AdaBoost算法、很优提升法和连续时间下的提升法之间的统计一致性。附录部分介绍了所需不错的数学概念。
    本书适合对提升法感兴趣的读者,本书每章都附有练习,因此也适用于高等院校相关课程的教学。

主编推荐
1.本书是提升法的创始人、哥德尔奖得主的代表作;
2.将提升法背后的各种理论举重若轻、抽丝剥茧、深入浅出地详加介绍;
3.充分考虑入门读者的需求,对所有材料都进行了适当的裁剪,每章后附有练习题;
4.书中有大量的应用实例和插图;
5.提供书中彩图文件。

提升法(boosting)是一种机器学习方法,其思想是通过组合许多较弱的、不准确的“经验法则”来创建一个高度准确的预测器。围绕提升法已发展出很好丰富的理论,涉及一系列的主题,包括统计学、博弈论、凸优化以及信息几何学。提升法也在生物学、计算机视觉和语音处理等领域获得了成功应用。
本书由提升法的提出者、罗伯特·夏皮雷(Robert. E. Schapire)和约夫·弗雷德(Yoav Freund)亲自执笔,汇集、组织、简化并实质性扩充了关于提升法的研究成果,以不同背景的读者都可以轻松阅读并理解的方式来呈现提升法的理论及其实践,同时也为不错研究人员提供了非常不错参考。本书充分考虑入门读者的需求,对所有的材料都进行了适当的裁剪,并在每章后都附有练习,因而适合作为相关教材使用。

本书首先对机器学习算法及其分析方法作了概要性介绍;然后探讨了提升法的核心理论,特别是它的泛化能力;考察了有助于理解和解释提升法的许多理论观点;提供了提升法的实用扩展以解决更复杂的学习问题;很后提出了一些不错理论。大量的应用实例和插图贯穿其中。

本书适合任何对机器学习算法、提升法感兴趣的读者,也适合作为高等院校相关课程的教材。

专家评论
这本书是很好的精神“担架”,值得好好阅读以及多次重读,即使是非专业人士。
——ACM 的Computing Reviews

一言以蔽之,这是我读过的关于机器学习的优选的书之一……
——Bactra 评论

对于那些希望在机器学习领域工作的人来说,本书提供了清晰而有见地的观点,在机
器学习的经典著作和研究人员的书架上都应该占有一席之地。
——Giles Hooker 美国统计协会

Robert Schapire 和Yoav Freund 提出的提升法在机器学习和统计学习方面产生
了巨大的影响,它经受住了时间的考验。关于为什么提升法如此有效,人们进行了热烈的讨论,现在还没有定论。这本来自“大师”的书,其各方面的内容十分均衡,涵盖了提升法的各个研究视角,能够帮助读者快速地享受该领域丰富研究成果。
——Trevor Hastie 斯坦福大学统计系

提升法提供了一个思考和设计机器学习算法的平台,已有20 多年的历史。提升法背后简单而优雅的思想就像是神奇的魔镜,研究人员可以从多个不同的角度来看待它。这本书将这些观点完美地结合在一起,是机器学习研究的重要参考资料。
——John Lafferty 芝加哥大学和卡内基梅隆大学

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP