• Python可解释AI实战
21年品牌 40万+商家 超1.5亿件商品

Python可解释AI实战

61.53 4.8折 128 九五品

仅1件

北京通州
认证卖家担保交易快速发货售后保障

作者[法]丹尼斯·罗斯曼(DenisRothman)著,叶伟 译

出版社清华大学出版社

ISBN9787302613299

出版时间2022-08

版次1

装帧平装

开本16开

纸张胶版纸

页数356页

字数99999千字

定价128元

上书时间2024-05-16

纵列風

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:九五品
商品描述
基本信息
书名:Python可解释AI实战
定价:128.00元
作者:[法]丹尼斯·罗斯曼(DenisRothman)著,叶伟 译
出版社:清华大学出版社
出版日期:2022-08-01
ISBN:9787302613299
字数:461000
页码:356
版次:
装帧:平装
开本:16开
商品重量:
编辑推荐
怎样才能有效地向A业务和利益相关者解释Al的决策?你需要仔细规划、设计和可视化。要解决的问题、模型以及变量之间的关系通常是微妙、出乎意料和复杂的。《Python可解释AI(XAI)实战》通过几个精心设计的项目让你在实践中掌握众多XAI工具和方法,而不是仅仅停留在理论和概念上。你将动手构建模型,可视化解释结果,并集成XAI工具。你将使用Python、TensorFlow 2、Google Cloud XAI平台、Google Colaboratory和其他框架构建XAI解决方案,以打开机器学习模型的黑匣子。本书涵盖多个可在整个机器学习项目生命周期中使用的Python开源XAI工具。你将学习如何探索机器学习模型结果,检查关键影响变量和变量关系,检测和处理偏见和道德伦理及法律问题,以及将机器学习模型可视化到用户界面中。读完这本书,你将深入了解XAI的核心概念并掌握多个XAI工具和方法。
内容提要
主要内容在机器学习生命周期的不同阶段规划和实施 XAI评估目前流行的各种XAI开源工具的优缺点介绍如何处理机器学习数据中的偏见问题介绍处理机器学习数据中的道德伦理和法律问题的工具和相关知识介绍XAI 设计和可视化方面的实践将XAI集成到Python模型中在整个机器学习生命周期中使用对应的XAI工具来解决业务问题
目录
章 使用Pytho解释AI.11.1 可解释AI 的定义21.1.1 从黑盒模型到XAI 白盒模型31.1.2 解释和阐释41.2 设计和提取51.3 医学诊断时间线中的XAI81.3.1 全科医生使用的标准AI 程序81.3.2 西尼罗河病毒——一个生死攸关的案例151.3.3 Google LocatioHistory 与XAI 的结合可以拯救生命211.3.4 下载Google LocatioHistory211.3.5 读取和显示Google LocationHistory251.3.6 用XAI 增强AI 诊断331.3.7 将XAI 应用于医学诊断实验性程序381.4 本章小结.421.5 习题421.6 参考资料431.7 扩展阅读43第2章 AI 偏差和道德方面的白盒XAI .452.1 自动驾驶汽车系统AI 的道德和偏差462.1.1 自动驾驶系统在生死关头是如何做决策的472.1.2 电车难题472.1.3 麻省理工学院的道德机器实验482.1.4 真实的生死攸关情景482.1.5 从道德伦理上解释AI 的局限性492.2 对自动驾驶决策树的解释512.2.1 自动驾驶系统的两难困境522.2.2 导入模块532.2.3 检索数据集532.2.4 读取和拆分数据542.2.5 决策树分类器的理论描述562.2.6 创建默认的决策树分类器572.2.7 训练、测量、保存模型582.2.8 显示决策树602.3 将XAI 应用于自动驾驶决策树622.4 使用XAI 和道德来控制决策树682.4.1 加载模型692.4.2 测量准确率.692.4.3 模拟实时案例692.4.4 由噪声引起的ML 偏差702.4.5 将道德和法律引入ML.722.6 本章小结742.7 习题752.8 参考资料752.9 扩展阅读76第3章 用Facets 解释ML.773.1 Facets 入门783.1.1 在Google Colaboratory安装Facets783.1.2 检索数据集793.1.3 读取数据文件803.2 Facets Overview803.3 对Facets 统计信息进行排序823.3.1 按特征顺序排序833.3.2 按不均匀性排序833.3.3 按字母顺序排序863.3.4 按缺失值或零值的数量排序863.3.5 按分布距离排序873.4 Facets Dive883.4.1 构建Facets Dive 交互式界面883.4.2 定义数据点的标签903.4.3 定义数据点的颜色923.4.4 定义x 轴和y 轴的binning 933.4.5 定义散点图的x 轴和y 轴943.5 本章小结963.6 习题963.7 参考资料973.8 扩展阅读97第4章 Microsoft Azure 机器学习模型的可解释与SHAP 994.1 SHAP 简介1004.1.1 关键的SHAP 原则1004.1.2 Shapley 值的数学表达式1024.1.3 情感分析示例1044.2 SHAP 入门1084.2.1 安装SHAP1084.2.2 导入数据1094.2.3 向量化数据集 1154.3 线性模型和逻辑回归1174.3.1 创建、训练和可视化线性模型的输出 1174.3.2 定义线性模型1194.3.3 使用SHAP 实现与模型无关的解释1214.3.4 创建线性模型解释器1214.3.5 添加图表功能1214.3.6 解释模型的预测结果1234.4 本章小结 1304.5 习题 1314.6 参考资料1314.7 扩展阅读1314.8 其他出版物 132第5章 从零开始构建可解释AI解决方案1335.1 道德伦理和法律视角 1345.2 美国人口普查数据问题 1355.2.1 使用pandas 显示数据1355.2.2 道德伦理视角1375.3 机器学习视角 1415.3.1 使用Facets Dive 显示训练数据1425.3.2 使用Facets Dive 分析训练数据1445.3.3 验证输出是否符合以上原则1465.3.4 对输入数据进行转换1535.4 将WIT 应用于转换后的数据集 1555.5 本章小结 1625.6 习题 1635.7 参考资料1635.8 扩展阅读 163第6章 用Google What-If Tool(WIT)实现AI 的公平性1656.1 从道德伦理视角谈AI可解释和可阐释性 1666.1.1 道德伦理视角1666.1.2 法律视角.1676.1.3 解释和阐释1676.1.4 准备符合道德伦理的数据集1686.2 WIT 入门1706.2.1 导入数据集1716.2.2 对数据进行预处理1726.2.3 创建数据结构以训练和测试模型1746.3 创建DNN 模型1746.4 创建SHAP 解释器1776.5 模型输出与SHAP 值1786.6 WIT 数据点浏览器和编辑器1816.6.1 创建WIT1816.6.2 数据点编辑器1826.6.3 特征1866.6.4 性能和公平性1876.7 本章小结1936.8 习题1936.9 参考资料1946.10 扩展阅读194第7章 可解释AI 聊天机器人 1957.1 Dialogflow 的Python客户端1967.1.1 安装Google Dialogflow 的Pytho客户端1977.1.2 创建Google Dialogflow 代理1977.1.3 启用API 和服务2007.1.4 实现Google Dialogflow 的Pytho客户端2027.2 增强Google Dialogflow 的Pytho客户端2057.2.1 创建对话函数2057.2.2 在Dialogflow 实现XAI 的限制2067.2.3 在Dialogflow 创建意图2067.2.4 XAI Pytho客户端2127.3 使用Google Dialogflow 的CUI XAI 对话 2167.3.1 将Dialogflow 集成到网站中2167.3.2 Jupyter Notebook XAI 代理管理器2207.3.3 Google Assistant 2207.4 本章小结 2227.5 习题 2237.6 扩展阅读 223第8章 LIME2258.1 介绍LIME 2268.1.1 LIME 的数学表示2278.2 开始使用LIME 2298.2.1 在Google Colaboratory 安装LIME2308.2.2 检索数据集和矢量化数据集2308.3 一个实验性的AutoML模块 2318.3.1 创建AutoML 模板2328.3.2 Bagging 分类器2338.3.3 梯度提升分类器2348.3.4 决策树分类器2348.3.5 极度随机树分类器2358.4 解释分数 2368.5 训练模型并生成预测 2368.5.1 分类器的交互选择2378.5.2 完成预测过程2388.6 LIME 解释器 2398.6.1 创建LIME 解释器2408.6.2 阐释LIME 解释器2428.7 本章小结2478.8 习题2488.9 参考资料2488.10 扩展阅读248第9章 反事实解释法 2499.1 反事实解释法2509.1.1 数据集和动机2509.1.2 使用WIT 可视化反事实距离2519.1.3 使用默认视图探索数据点距离2539.1.4 反事实解释的逻辑2589.2 距离函数的选项2629.2.1 L1 范数2639.2.2 L2 范数2649.2.3 自定义距离函数2659.3 深度学习模型的架构2669.3.1 调用 WIT2669.3.2 自定义预测函数2679.3.3 加载 Keras 预训练模型2689.3.4 检索数据集和模型2699.4 本章小结2709.5 习题2709.6 参考资料2719.7 扩展阅读2710章 对比解释法(CEM)  27310.1 CEM27410.2 将CEM应用于MNIST27610.2.1 安装Alibi 并导入模块27610.2.2 导入模块和数据集27610.3 定义和训练CNN 模型27910.3.1 创建CNN 模型28110.3.2 训练CNN 模型28110.3.3 将原始图像与解码图像进行比较28510.4 相关负面 28710.4.1 CEM 参数28810.4.2 初始化CEM解释器28910.4.3 相关负面的解释29010.5 本章小结 29110.6 习题. 29210.7 参考资料 29210.8 扩展阅读 2931章 锚解释法29511.1 锚解释法 29611.1.1 预测收入29611.1.2 新闻组分类29911.2 对ImageNet 图像预测应用锚解释法 30011.2.1 安装Alibi 并导入其他所需模块30011.2.2 加载InceptionV3 模型30111.2.3 下载图像30111.2.4 处理图像并进行预测30211.2.5 构建锚图像解释器30311.2.6 解释其他类别30611.2.7 锚解释法的局限性30811.3 本章小结 30911.4 习题 30911.5 参考资料 31011.6 扩展阅读 3102章 认知解释法 31112.1 基于规则的认知解释法 31212.1.1 从XAI 工具到XAI 概念31312.1.2 定义认知解释法31312.1.3 实践认知解释法31512.1.4 特征的边际贡献31912.2 矢量化器的认知解释法32212.2.1 解释LIME 的矢量化器32312.2.2 解释 IMDb 的SHAP矢量化器32512.3 CEM 的人类认知输入32712.4 本章小结 33112.5 习题 33212.6 扩展阅读 332习题答案333
作者介绍
Denis Rothma毕业于索邦大学和巴黎-狄德罗大学,他写过早的word2vector embedding 解决方案之一。职业生涯伊始,他就创作了批AI 认知自然语言处理(NLP)聊天机器人之一,该聊天机器人为语言教学应用程序,用于Moët et Chando以及其他公司。他也为IBM 和服装生产商编写了一个AI 资源优化器。之后,他还编写了一种在全球范围内使用的高级计划和排程(APS)解决方案。“我要感谢那些从一开始就信任我的公司,是它们把AI 解决方案委托于我,并分担持续创新所带来的风险。我还要感谢我的家人,他们一直相信我会取得成功。”
序言

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP