• 可解释机器学习 黑盒模型可解释性理解指南
  • 可解释机器学习 黑盒模型可解释性理解指南
  • 可解释机器学习 黑盒模型可解释性理解指南
  • 可解释机器学习 黑盒模型可解释性理解指南
  • 可解释机器学习 黑盒模型可解释性理解指南
  • 可解释机器学习 黑盒模型可解释性理解指南
21年品牌 40万+商家 超1.5亿件商品

可解释机器学习 黑盒模型可解释性理解指南

全新正版 假一赔十 可开发票

64.65 6.5折 99 全新

库存4件

北京东城
认证卖家担保交易快速发货售后保障

作者(德)克里斯托夫·莫尔纳

出版社电子工业出版社

ISBN9787121406065

出版时间2021-02

装帧平装

开本16开

定价99元

货号1202308652

上书时间2024-09-20

轻阅书店

三年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介
"Christoph Molnar
可解释机器学习研究员,目前在德国慕尼黑大学统计研究所攻读博士学位,目标是让机器学习模型的决策更容易被人类理解。著作Interpretable Machine Learning 受到业界高度关注。
译者介绍
朱明超
就读于复旦大学计算机科学技术专业,热衷于知识推广,主要研究机器学习和模型可解释性。"

目录
推荐序一/III

推荐序二/V

作者序/VII

译者序/IX

第1章引言/1

1.1故事时间/2

1.1.1闪电不会击中两次/2

1.1.2信任倒下/4

1.1.3费米的回形针/6

1.2什么是机器学习/7

1.3术语/8

第2章可解释性/13

2.1可解释性的重要性/14

2.2可解释性方法的分类/18

2.3可解释性的范围/20

2.3.1算法透明度/20

2.3.2全局、整体的模型可解释性/21

2.3.3模块层面上的全局模型可解释性/21

2.3.4单个预测的局部可解释性/22

2.3.5一组预测的局部可解释性/22

2.4可解释性评估/22

2.5解释的性质/23

2.6人性化的解释/25

2.6.1什么是解释/26

2.6.2什么是好的解释/26

第3章数据集/31

3.1自行车租赁(回归)/32

3.2YouTube垃圾评论(文本分类)/32

3.3宫颈癌的危险因素(分类)/33

第4章可解释的模型/35

4.1线性回归/36

4.1.1解释/38

4.1.2示例/40

4.1.3可视化解释/41

4.1.4解释单个实例预测/44

4.1.5分类特征的编码/45

4.1.6线性模型是否有很好的解释/46

4.1.7稀疏线性模型/47

4.1.8优点/50

4.1.9缺点/50

4.2逻辑回归/51

4.2.1线性回归用于分类有什么问题/51

4.2.2理论/52

4.2.3解释/53

4.2.4示例/55

4.2.5优缺点/56

4.2.6软件/57

4.3GLM、GAM和其他模型/57

4.3.1非高斯结果输出――GLM/59

4.3.2交互/63

4.3.3非线性效应――GAM/66

4.3.4优点/71

4.3.5缺点/71

4.3.6软件/72

4.3.7进一步扩展/72

4.4决策树/73

4.4.1解释/75

4.4.2示例/76

4.4.3优点/77

4.4.4缺点/78

4.4.5软件/78

4.5决策规则/79

4.5.1OneR/81

4.5.2顺序覆盖/85

4.5.3贝叶斯规则列表/88

4.5.4优点/93

4.5.5缺点/94

4.5.6软件和替代方法/94

4.6RuleFit/95

4.6.1解释和示例/96

4.6.2理论/97

4.6.3优点/100

4.6.4缺点/101

4.6.5软件和替代方法/101

4.7其他可解释模型/101

4.7.1朴素贝叶斯分类器/102

4.7.2k-近邻/102

第5章与模型无关的方法/103

5.1部分依赖图/105

5.1.1示例/106

5.1.2优点/108

5.1.3缺点/110

5.1.4软件和替代方法/110

5.2个体条件期望/111

5.2.1示例/111

5.2.2优点/115

5.2.3缺点/115

5.2.4软件和替代方法/115

5.3累积局部效应图/115

5.3.1动机和直觉/115

5.3.2理论/119

5.3.3ALE图的估计/120

5.3.4示例/123

5.3.5优点/130

5.3.6缺点/131

5.3.7软件和替代方法/132

5.4特征交互/132

5.4.1特征交互的概念/133

5.4.2理论:弗里德曼的H统计量/134

5.4.3示例/135

5.4.4优点/137

5.4.5缺点/138

5.4.6实现/138

5.4.7替代方法/138

5.5置换特征重要性/139

5.5.1理论/139

5.5.2应该计算训练数据的重要性还是测试数据的重要性/140

5.5.3示例和解释/142

5.5.4优点/143

5.5.5缺点/145

5.5.6软件和替代方法/146

5.6全局代理模型/146

5.6.1理论/146

5.6.2示例/148

5.6.3优点/150

5.6.4缺点/150

5.6.5软件/150

5.7局部代理模型(LIME)/150

5.7.1表格数据的LIME/152

5.7.2文本的LIME/155

5.7.3图像的LIME/156

5.7.4优点/156

5.7.5缺点/158

5.8Shapley值/158

5.8.1总体思路/158

5.8.2示例与解释/162

5.8.3详细的Shapley值/163

5.8.4优点/167

5.8.5缺点/168

5.8.6软件和替代方法/169

5.9SHAP/169

5.9.1SHAP的定义/169

5.9.2KernelSHAP/171

5.9.3TreeSHAP/174

5.9.4示例/175

5.9.5SHAP特征重要性/176

5.9.6SHAP概要图/177

5.9.7SHAP依赖图/178

5.9.8SHAP交互值/179

5.9.9聚类SHAP值/180

5.9.10优点/180

5.9.11缺点/181

5.9.12软件/182

第6章基于样本的解释/183

6.1反事实解释/185

6.1.1生成反事实解释/187

6.1.2示例/189

6.1.3优点/190

6.1.4缺点/190

6.1.5软件和替代方法/191

6.2对抗样本/191

6.2.1方法与示例/192

6.2.2网络安全视角/198

6.3原型与批评/199

6.3.1理论/200

6.3.2示例/205

6.3.3优点/205

6.3.4缺点/206

6.3.5软件和替代方法/206

6.4有影响力的实例/206

6.4.1删除诊断/209

6.4.2影响函数/213

6.4.3识别有影响力的实例的优点/218

6.4.4识别有影响力的实例的缺点/218

6.4.5软件和替代方法/219

第7章水晶球/221

7.1机器学习的未来/223

7.2可解释性的未来/224

参考文献/227

内容摘要
机器学习虽然对改进产品性能和推进研究有很大的潜力,但无法对它们的预测做出解释,这是当前面临的一大障碍。本书是一本关于使机器学习模型及其决策具有可解释性的书。本书探索了可解释性的概念,介绍了简单的、可解释的模型,例如决策树、决策规则和线性回归,重点介绍了解释黑盒模型的、与模型无关的方法,如特征重要性和累积局部效应,以及用Shapley值和LIME解释单个实例预测。本书对所有的解释方法进行了深入说明和批判性讨论,例如它们如何在黑盒下工作、它们的优缺点是什么、如何解释它们的输出。本书将解答如何选择并正确应用解释方法。本书的重点是介绍表格式数据的机器学习模型,较少涉及计算机视觉和自然语言处理任务。本书适合机器学习从业者、数据科学家、统计学家和所有对使机器学习模型具有可解释性感兴趣的人阅读。

主编推荐
"第一部系统总结可解释机器学习的著作
全面介绍了可解释模型、黑盒模型的可解释性、与模型无关的方法
包含各种解释方法优缺点,以及每种方法的软件实现
《可解释机器学习:黑盒模型可解释性理解指南》没有晦涩的语言与公式推导,通过平实的语言、现实生活中的例子讲解相关概念,通俗易懂
适合机器学习从业者、数据科学家、统计学家和任何对使机器学习模型可解释的人阅读
各种解释方法是如何工作的?优点和缺点分别是什么?如何解释它们的输出?
翻开本书都将一一找到答案!
阿里巴巴达摩院资深算法专家杨红霞博士、复旦大学计算机学院谢志鹏教授,倾情作序!
浙江大学计算机科学与技术学院陈华钧教授;同济大学百人计划特聘研究员、OpenKG创始人之一王昊奋教授;中国科学院人工智能联盟标准组成员、大海无量首席科学家吴焦苏教授,联袂推荐!"

媒体评论
"可解释性在机器学习的很多真实业务场景中至关重要,也是以深度学习为代表的人工智能新方法的主要弱点。本书介绍了可解释机器学习的基本概念、实现方法和实际应用,具有很强的系统性、前瞻性和启发性,是一本值得深入阅读、的参考书。

陈华钧
浙江大学计算机科学与技术学院教授

人工智能尤其是深度学习算法广泛应用于各行各业,并逐步在各种辅助决策阶段扮演越来越重要的角色。人们在惊叹机器智能的同时,也迫切想知道其所作出的决策背后的机理。《可解释机器学习》分别从可解释性模型、黑盒模型的可解释性及样本的可解释性等方面系统全面地介绍可解释人工智能。明超所译的中文版严谨中不失趣味,技术描述中穿插着各种故事,深入浅出,引人入胜。本书不仅适合从事可解释人工智能研究者阅读,也适合广大行业从业者与决策者参考。

王昊奋
同济大学百人计划特聘研究员,OpenKG创始人之一

机器学习的可解释性是21世纪人工智能科学界的一个难题,处于相当早期的阶段。在判断可解释性的好坏方面,还没有非常成熟的或广为人们接受的标准。可解释性像一个透明的水晶球,可以帮助开发人员调试和改进机器学习模型,验证机器学习模型的预测能力并获得洞察力,为可信人工智能提供理论指导。其中,基于博弈论的、黑盒模型的、与模型无关的可解释性方法有巨大的前景,非常灵活和强大。本书是可解释机器学习领域的优秀著作。如果你想探究人工智能的奥秘,掌握人工智能的精髓,就透过本书来感受水晶球的魔力吧!

吴焦苏
中国科学院人工智能联盟标准组成员 ,大海无量首席科学家"

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP