面向从业者的可解释人工智能9787576609950
正版图书,可开发票,请放心购买。
¥
93.35
7.3折
¥
128
全新
库存3件
作者(美国)迈克尔·蒙恩//大卫·彼得曼|译者:陈志鸿//李广
出版社东南大学
ISBN9787576609950
出版时间2024-07
装帧其他
开本其他
定价128元
货号32224177
上书时间2024-11-12
商品详情
- 品相描述:全新
- 商品描述
-
作者简介
MichaelMunn是谷歌的ML解决方案工程师,他与谷歌Cloud的客户一起帮助他们设计、实现和部署机器学习模型。他还在高级解决方案实验室教授ML浸入式课程。迈克尔拥有纽约城市大学数学博士学位。在加入谷歌之前,他是一名研究教授。
目录
第1章介绍了机器学习中围绕可解释性的主要概念和原理。我们将讨论可
解释性背后的动机,以及不同的人如何从可解释性中受益,从工程师、开
发人员到业务利益相关者以及终端用户。
第2章给出了各种可解释性技术的高级分类,以形成区分和理解这些方法
的思维路线图。
第3章至第6章侧重于具体的可解释性技术,并根据具体的用例进行安
排,从表格数据到计算机视觉和自然语言。特别是第6章重点介绍了可解
释 AI的先进技术和新兴前景。每一章都介绍了一些技术、其优缺点以及
实现上的注意事项。
第7章侧重于解释性的人际交互方面,例如常见的陷阱以及如何最好地利
用可解释性技术创建可操作的结果。
第8章给出了如何在整个机器学习工作流中应用本书中涵盖的各种技术的
可解释 AI 工具包的总结和路线图。
内容摘要
本实用指南为模型可解释性汇集了一流的技术。有经验的机器学习工程师和数据科学家将亲自学习这些技术如何工作,以便能够在日常工作流程中更轻松地应用这些工具。
本书内容包括:详细介绍了一些最有用和最常用的解释性技术,强调了优点和缺点,以帮助您选择适合您需求的最佳工具;实施这些技术的技巧和最佳实践;与解释性交互以及如何避免常见陷阱的指南;将可解释性纳入ML工作流以帮助构建更健壮的ML系统所需的知识;关于可解释AI技术的建议,包括如何将技术应用于使用表格、图像或文本数据的模型;Python示例实现代码,使用Keras和TensorFlow2.0、PyTorch和HuggingFace中构建的模型的知名解释性库。
精彩内容
公平性公理Shapley值被认为是一种“有利且公平”的归因方法,因为它们满足四个公平的公理:效率、对称性、零玩家和可加性/线性:效率(efficiency)公理表示,总归因是以无损的方式在所有模型特征中分配的。也就是说,应用Shapley值时确定的所有特征归因之和等于模型的总归因。
对称性(symmetry)公理表示,如果两个特征扮演相同的角色,那么它们的Shapley值必须相等。这意味着只有角色的作用才重要;标签或具体名称是无关的。更改特征名称不会更改Shapley值
零玩家(nullplayer)公理表示,如果特征的边际重要性始终为零则该特征的基线值也为零。
可加性/线性(additivity/linearity)公理确保了关于模型线性组合的特征归因之间的一致性。
这四个公理提供了Shapley值的独特表征。让我们讨论一下这些公理在机器学习可解释性的背景下的状态。另见第6章中关于评估可解释性技
术的公理化方法的讨论。
— 没有更多了 —
以下为对购买帮助不大的评价