• 深入理解机器学习:从原理到算法
  • 深入理解机器学习:从原理到算法
  • 深入理解机器学习:从原理到算法
  • 深入理解机器学习:从原理到算法
  • 深入理解机器学习:从原理到算法
  • 深入理解机器学习:从原理到算法
  • 深入理解机器学习:从原理到算法
  • 深入理解机器学习:从原理到算法
21年品牌 40万+商家 超1.5亿件商品

深入理解机器学习:从原理到算法

20 2.5折 79 九品

仅1件

北京昌平
认证卖家担保交易快速发货售后保障

作者[以色列]沙伊·沙莱夫-施瓦茨、[加拿大]沙伊·本-戴维 著;张文生 译

出版社机械工业出版社

出版时间2016-07

版次1

装帧平装

上书时间2024-11-16

金盛书局

九年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:九品
图书标准信息
  • 作者 [以色列]沙伊·沙莱夫-施瓦茨、[加拿大]沙伊·本-戴维 著;张文生 译
  • 出版社 机械工业出版社
  • 出版时间 2016-07
  • 版次 1
  • ISBN 9787111543022
  • 定价 79.00元
  • 装帧 平装
  • 开本 16开
  • 纸张 胶版纸
  • 页数 309页
  • 正文语种 简体中文
  • 原版书名 Understanding Machine Learning:From Theory to Algorithms
  • 丛书 计算机科学丛书
【内容简介】

  本书介绍机器学习方法的原理及方法,同时引入了学习的计算复杂性、凸性和稳定性、PAC贝叶斯方法、压缩界等概念,以及随机梯度下降、神经元网络和结构化输出等方法。作者既讲述重要的机器学习算法的工作原理和动机,还指出其固有的优势和缺点,是有兴趣了解机器学习理论和方法以及应用的学生和专业人员的良好教材或参考书。

【作者简介】

沙伊·沙莱夫-施瓦茨(Shai Shalev-Shwartz) 以色列希伯来大学计算机及工程学院副教授,还在Mobileye公司研究自动驾驶。2009年之前他在芝加哥的丰田技术研究所工作。他的研究方向是机器学习算法。
沙伊·本-戴维(Shai Ben-David) 加拿大滑铁卢大学计算机科学学院教授。先后在以色列理工学院、澳大利亚国立大学和康奈尔大学任教。

【目录】

出版者的话

 

译者序

 

前言

 

致谢

 

第1章引论1

 

1.1什么是学习1

 

1.2什么时候需要机器学习2

 

1.3学习的种类3

 

1.4与其他领域的关系4

 

1.5如何阅读本书4

 

1.6符号6

 

第一部分理论基础

 

第2章简易入门10

 

2.1一般模型——统计学习理论框架10

 

2.2经验风险最小化11

 

2.3考虑归纳偏置的经验风险最小化12

 

2.4练习15

 

第3章一般学习模型17

 

3.1PAC学习理论17

 

3.2更常见的学习模型18

 

3.2.1放宽可实现假设——不可知PAC学习18

 

3.2.2学习问题建模19

 

3.3小结21

 

3.4文献评注21

 

3.5练习21

 

第4章学习过程的一致收敛性24

 

4.1一致收敛是可学习的充分条件24

 

4.2有限类是不可知PAC可学习的25

 

4.3小结26

 

4.4文献评注27

 

4.5练习27

 

第5章偏差与复杂性权衡28

 

5.1“没有免费的午餐”定理28

 

5.2误差分解31

 

5.3小结31

 

5.4文献评注32

 

5.5练习32

 

第6章VC维33

 

6.1无限的类也可学习33

 

6.2VC维概述34

 

6.3实例35

 

6.3.1阈值函数35

 

6.3.2区间35

 

6.3.3平行于轴的矩形35

 

6.3.4有限类36

 

6.3.5VC维与参数个数36

 

6.4PAC学习的基本定理36

 

6.5定理6.7的证明37

 

6.5.1Sauer引理及生长函数37

 

6.5.2有小的有效规模的类的一致收敛性39

 

6.6小结40

 

6.7文献评注41

 

6.8练习41

 

第7章不一致可学习44

 

7.1不一致可学习概述44

 

7.2结构风险最小化46

 

7.3最小描述长度和奥卡姆剃刀48

 

7.4可学习的其他概念——一致收敛性50

 

7.5探讨不同的可学习概念51

 

7.6小结53

 

7.7文献评注53

 

7.8练习54

 

第8章学习的运行时间56

 

8.1机器学习的计算复杂度56

 

8.2ERM规则的实现58

 

8.2.1有限集58

 

8.2.2轴对称矩形59

 

8.2.3布尔合取式59

 

8.2.4学习三项析取范式60

 

8.3高效学习,而不通过合适的ERM60

 

8.4学习的难度*61

 

8.5小结62

 

8.6文献评注62

 

8.7练习62

 

第二部分从理论到算法

 

第9章线性预测66

 

9.1半空间66

 

9.1.1半空间类线性规划67

 

9.1.2半空间感知器68

 

9.1.3半空间的VC维69

 

9.2线性回归70

 

9.2.1最小平方70

 

9.2.2多项式线性回归71

 

9.3逻辑斯谛回归72

 

9.4小结73

 

9.5文献评注73

 

9.6练习73

 

第10章boosting75

 

10.1弱可学习75

 

10.2AdaBoost78

 

10.3基础假设类的线性组合80

 

10.4AdaBoost用于人脸识别82

 

10.5小结83

 

10.6文献评注83

 

10.7练习84

 

第11章模型选择与验证85

 

11.1用结构风险最小化进行模型选择85

 

11.2验证法86

 

11.2.1留出的样本集86

 

11.2.2模型选择的验证法87

 

11.2.3模型选择曲线88

 

11.2.4k折交叉验证88

 

11.2.5训练验证测试拆分89

 

11.3如果学习失败了应该做什么89

 

11.4小结92

 

11.5练习92

 

第12章凸学习问题93

 

12.1凸性、利普希茨性和光滑性93

 

12.1.1凸性93

 

12.1.2利普希茨性96

 

12.1.3光滑性97

 

12.2凸学习问题概述98

 

12.2.1凸学习问题的可学习性99

 

12.2.2凸利普希茨/光滑有界学习问题100

 

12.3替代损失函数101

 

12.4小结102

 

12.5文献评注102

 

12.6练习102

 

第13章正则化和稳定性104

 

13.1正则损失最小化104

 

13.2稳定规则不会过拟合105

 

13.3Tikhonov正则化作为稳定剂106

 

13.3.1利普希茨损失108

 

13.3.2光滑和非负损失108

 

13.4控制适合与稳定性的权衡109

 

13.5小结111

 

13.6文献评注111

 

13.7练习111

 

第14章随机梯度下降114

 

14.1梯度下降法114

 

14.2次梯度116

 

14.2.1计算次梯度117

 

14.2.2利普希茨函数的次梯度118

 

14.2.3次梯度下降118

 

14.3随机梯度下降118

 

14.4SGD的变型120

 

14.4.1增加一个投影步120

 

14.4.2变步长121

 

14.4.3其他平均技巧121

 

14.4.4强凸函数*121

 

14.5用SGD进行学习123

 

14.5.1SGD求解风险极小化123

 

14.5.2SGD求解凸光滑学习问题的分析124

 

14.5.3SGD求解正则化损失极小化125

 

14.6小结125

 

14.7文献评注125

 

14.8练习126

 

第15章支持向量机127

 

15.1间隔与硬SVM127

 

15.1.1齐次情况129

 

15.1.2硬SVM的样本复杂度129

 

15.2软SVM与范数正则化130

 

15.2.1软SVM的样本复杂度131

 

15.2.2间隔、基于范数的界与维度131

 

15.2.3斜坡损失*132

 

15.3最优化条件与“支持向量”*133

 

15.4对偶*133

 

15.5用随机梯度下降法实现软SVM134

 

15.6小结135

 

15.7文献评注135

 

15.8练习135

 

第16章核方法136

 

16.1特征空间映射136

 

16.2核技巧137

 

16.2.1核作为表达先验的一种形式140

 

16.2.2核函数的特征*141

 

16.3软SVM应用核方法141

 

16.4小结142

 

16.5文献评注143

 

16.6练习143

 

第17章多分类、排序与复杂预测问题145

 

17.1一对多和一对一145

 

17.2线性多分类预测147

 

17.2.1如何构建Ψ147

 

17.2.2对损失敏感的分类148

 

17.2.3经验风险最小化149

 

17.2.4泛化合页损失149

 

17.2.5多分类SVM和SGD150

 

17.3结构化输出预测151

 

17.4排序153

 

17.5二分排序以及多变量性能测量157

 

17.6小结160

 

17.7文献评注160

 

17.8练习161

 

第18章决策树162

 

18.1采样复杂度162

 

18.2决策树算法163

 

18.2.1增益测量的实现方式164

 

18.2.2剪枝165

 

18.2.3实值特征基于阈值的拆分规则165

 

18.3随机森林165

 

18.4小结166

 

18.5文献评注166

 

18.6练习166

 

第19章最近邻167

 

19.1k近邻法167

 

19.2分析168

 

19.2.11NN准则的泛化界168

 

19.2.2“维数灾难”170

 

19.3效率实施*171

 

19.4小结171

 

19.5文献评注171

 

19.6练习171

 

第20章神经元网络174

 

20.1前馈神经网络174

 

20.2神经网络学习175

 

20.3神经网络的表达力176

 

20.4神经网络样本复杂度178

 

20.5学习神经网络的运行时179

 

20.6SGD和反向传播179

 

20.7小结182

 

20.8文献评注183

 

20.9练习183

 

第三部分其他学习模型

 

第21章在线学习186

 

21.1可实现情况下的在线分类186

 

21.2不可实现情况下的在线识别191

 

21.3在线凸优化195

 

21.4在线感知器算法197

 

21.5小结199

 

21.6文献评注199

 

21.7练习199

 

第22章聚类201

 

22.1基于链接的聚类算法203

 

22.2k均值算法和其他代价最小聚类203

 

22.3谱聚类206

 

22.3.1图割206

 

22.3.2图拉普拉斯与松弛图割算法206

 

22.3.3非归一化的谱聚类207

 

22.4信息瓶颈*208

 

22.5聚类的进阶观点208

 

22.6小结209

 

22.7文献评注210

 

22.8练习210

 

第23章维度约简212

 

23.1主成分分析212

 

23.1.1当dm时一种更加有效的求解方法214

 

23.1.2应用与说明214

 

23.2随机投影216

 

23.3压缩感知217

 

23.4PCA还是压缩感知223

 

23.5小结223

 

23.6文献评注223

 

23.7练习223

 

第24章生成模型226

 

24.1极大似然估计226

 

24.1.1连续随机变量的极大似然估计227

 

24.1.2极大似然与经验风险最小化228

 

24.1.3泛化分析228

 

24.2朴素贝叶斯229

 

24.3线性判别分析230

 

24.4隐变量与EM算法230

 

24.4.1EM是交替最大化算法232

 

24.4.2混合高斯模型参数估计的EM算法233

 

24.5贝叶斯推理233

 

24.6小结235

 

24.7文献评注235

 

24.8练习235

 

第25章特征选择与特征生成237

 

25.1特征选择237

 

25.1.1滤波器238

 

25.1.2贪婪选择方法239

 

25.1.3稀疏诱导范数241

 

25.2特征操作和归一化242

 

25.3特征学习244

 

25.4小结246

 

25.5文献评注246

 

25.6练习246

 

第四部分高级理论

 

第26章拉德马赫复杂度250

 

26.1拉德马赫复杂度概述250

 

26.2线性类的拉德马赫复杂度255

 

26.3SVM的泛化误差界256

 

26.4低1范数预测器的泛化误差界258

 

26.5文献评注259

 

第27章覆盖数260

 

27.1覆盖260

 

27.2通过链式反应从覆盖到拉德马赫复杂度261

 

27.3文献评注262

 

第28章学习理论基本定理的证明263

 

28.1不可知情况的上界263

 

28.2不可知情况的下界264

 

28.2.1证明m(ε,δ)≥0.5log(1/(4δ))/ε2264

 

28.2.2证明m(ε,1/8)≥8d/ε2265

 

28.3可实现情况的上界267

 

第29章多分类可学习性271

 

29.1纳塔拉詹维271

 

29.2多分类基本定理271

 

29.3计算纳塔拉詹维272

 

29.3.1基于类的一对多272

 

29.3.2一般的多分类到二分类约简273

 

29.3.3线性多分类预测器273

 

29.4好的与坏的ERM274

 

29.5文献评注275

 

29.6练习276

 

第30章压缩界277

 

30.1压缩界概述277

 

30.2例子278

 

30.2.1平行于轴的矩形278

 

30.2.2半空间279

 

30.2.3可分多项式279

 

30.2.4间隔可分的情况279

 

30.3文献评注280

 

第31章PAC贝叶斯281

 

31.1PAC贝叶斯界281

 

31.2文献评注282

 

31.3练习282

 

附录A技术性引理284

 

附录B测度集中度287

 

附录C线性代数294

 

参考文献297

 

索引305

点击展开 点击收起

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP