• AI可解释性
21年品牌 40万+商家 超1.5亿件商品

AI可解释性

28.85 4.8折 59.8 九五品

仅1件

天津武清
认证卖家担保交易快速发货售后保障

作者[意]列奥尼达·詹法纳,安东尼奥·迪·塞科著,郭涛 译

出版社清华大学出版社

ISBN9787302605690

出版时间2022-08

版次1

装帧平装

开本16开

纸张胶版纸

页数228页

字数99999千字

定价59.8元

上书时间2024-05-01

鲁是特

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:九五品
商品描述
基本信息
书名:AI可解释性
定价:59.80元
作者:[意]列奥尼达·詹法纳,安东尼奥·迪·塞科著,郭涛 译
出版社:清华大学出版社
出版日期:2022-08-01
ISBN:9787302605690
字数:223000
页码:228
版次:
装帧:平装
开本:32开
商品重量:
编辑推荐

内容提要

目录
章 前景   11.1  AI可解释性示例   21.1.1  学习阶段   31.1.2  知识发现   41.1.3  可靠性和鲁棒性   51.1.4  三个示例的启示   51.2  ML和XAI   61.2.1  ML分类法   81.2.2  常见误解   111.3  对AI可解释性的需求   121.4  可解释性与可理解性:是否为表达相同事物的不同词语   141.4.1  从物质世界到人类   151.4.2  相关性不是因果性   161.4.3  那么可理解性和可解释性的区别是什么   191.5  使ML系统具备可解释性   211.5.1  XAI工作流程   211.5.2  全局视觉   241.6  我们真的需要ML模型的可解释性吗   261.7  小结   28参考文献   29第2章 AI可解释性:需求、机遇和挑战   312.1  人工介入   322.1.1  半人马座XAI系统   322.1.2  从“人工介入”的角度评估XAI   352.2  如何使ML模型具备可解释性   372.2.1  内在可解释性   412.2.2  事后可解释性   442.2.3  全局或局部可解释性   462.3  解释的性质   492.4  小结   51参考文献   52第3章 内在可解释性模型   533.1  损失函数   543.2  线性回归   573.3  逻辑回归   673.4  决策树   783.5  K近邻算法(KNN)   873.6  小结   90参考文献   91第4章 XAI的模型不可知方法   934.1  全局可解释性:排序重要性与部分依赖图   944.1.1  根据排序重要性将特征排序   954.1.2  训练集中的排序重要性   994.1.3  部分依赖图   1004.1.4  解释的性质   1044.2  局部可解释性:XAI与Shapley加法解释   1064.2.1  Shapley值:一种博弈论方法   1074.2.2  SHAP的首次应用   1084.2.3  解释的性质   1114.3  KernelSHAP   1114.3.1  Shapley公式   1124.3.2  如何计算Shapley值   1124.3.3  局部线性代理模型(LIME)   1134.3.4  KernelSHAP是一种特殊的LIME   1154.4  KernelSHAP与交互   1164.4.1  纽约出租车情境   1164.4.2  通过初步分析训练模型   1164.4.3  用KernelShap使模型具备可解释性   1204.4.4  特征交互   1204.5  提升树的更快速SHAP   1224.5.1  TreeShap的应用   1224.5.2  提供解释   1234.6  对SHAP的朴素评价   1254.7  小结   127参考文献   128第5章 解释深度学习模型   1295.1  不可知方法   1305.1.1  对抗性特征   1305.1.2  增强方法   1325.1.3  将遮挡用作增强方法   1335.1.4  将遮挡用作不可知XAI方法   1345.2  神经网络(NN)   1385.2.1  神经网络结构   1385.2.2  为什么神经网络是深层网络(与浅层网络相对)   1405.2.3  修正激活(和批量归一化)   1425.2.4  显著图   1435.3  打开深度网络   1445.3.1  不同层解释   1445.3.2  CAM(类激活图,Class ActivatioMaps)和Grad-CAM   1445.3.3  DeepShap/ DeepLift   1465.4  对显著性方法的评判   1505.4.1  网络所见   1505.4.2  可解释性逐层批量标准化   1515.5  无监督方法   1525.5.1  无监督降维   1525.5.2  卷积滤波器降维   1545.5.3  激活图集:如何区分炒锅与煎锅   1565.6 小结   158参考文献   159第6章 用ML和XAI创造科学   1616.1  数据时代的科学方法   1626.2  因果关系阶梯   1666.3  用ML和XAI发现物理概念   1726.3.1  自动编码器的魔力   1736.3.2  利用ML和XAI发现阻尼摆的物理特性   1776.3.3  攀登因果关系阶梯   1816.4  ML和XAI时代的科学   1826.5  小结   184参考文献   185第7章 对抗性机器学习和可解释性   1877.1  对抗性示例(AE)速成课程   1887.2  使用对抗性示例运行XAI   2017.3  用XAI抵御对抗性攻击   2057.4  小结   208参考文献   209第8章 关于XAI可持续模型的建议   2118.1  XAI“Fil Rouge”   2128.2  XAI和GDPR   2148.3  结语   2208.4  小结   224参考文献   224附录 F.A.S.T. XAI认证   227
作者介绍
Leonida Gianfagna博士是一位理论物理学家,目前在网络安全领域工作,担任Cyber Guru的研发总监。在加入Cyber Guru之前,他在IBM工作了15年,担任ITSM(IT服务管理)软件开发的领导。Leonida发表了多篇理论物理和计算机科学的论文,被授予IBM发明大师(IBM Master Inventor)。  Antonio Di Cecco是一位理论物理学家,拥有强大的数学背景。他完全致力于提供从入门到专家等不同层次的线上或线下AIML教育,使用深入挖掘AIML模型的数学基础的教育方法,并打开了新的角度来展示AIML知识和现有技术的改进空间。Antonio还拥有专注于创新和教学经验的经济学硕士学位。他还是一家意大利人工智能学院的领导,该学院在罗马和佩斯卡拉都有分支机构。译者:郭涛,主要从事模式识别与人工智能、智能机器人、软件工程、地理人工智能(GeoAI)和时空大数据挖掘与分析等前沿交叉技术的研究。翻译出版了《复杂性思考:复杂性科学与计算模型(第2版)》《神经网络设计与实现》和《概率图模型及计算机视觉应用》等书。
序言

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP