书馨卡帮你省薪
欢迎光临中图网 请 | 注册
> >
可解释机器学习 黑盒模型可解释性理解指南(第2版)

可解释机器学习 黑盒模型可解释性理解指南(第2版)

出版社:电子工业出版社出版时间:2024-10-01
开本: 16开 页数: 272
中 图 价:¥93.2(7.9折) 定价  ¥118.0 登录后可看到会员价
加入购物车 收藏
运费6元,满39元免运费
?新疆、西藏除外
本类五星书更多>

可解释机器学习 黑盒模型可解释性理解指南(第2版) 版权信息

  • ISBN:9787121490149
  • 条形码:9787121490149 ; 978-7-121-49014-9
  • 装帧:平装-胶订
  • 册数:暂无
  • 重量:暂无
  • 所属分类:>

可解释机器学习 黑盒模型可解释性理解指南(第2版) 本书特色

大语言模型(LLMs)在自然语言处理(NLP)和其他领域展现出了显著的能力,但其可解释性问题仍然是一个挑战。研究机器学习的可解释性对于推动大模型技术发展有以下帮助: ,提高模型的透明度和信任度;第二,促进算法的改进和创新;第三,降低模型出错的风险;第四,支持监管和合规;第五,促进跨学科合作。本书作为较为早期的一部研究可解释机器学习的作品,为业界探索可解释方法提供了一定的帮助,第二版在原书基础上做了大幅 新和修改,相信读者阅读后会有新的启发。

可解释机器学习 黑盒模型可解释性理解指南(第2版) 内容简介

机器学习虽然在改进产品性能、产品流程和推进研究方面有很大的潜力,但仍面临一大障碍――计算机无法解释其预测结果。因此,本书旨在阐明如何使机器学习模型及其决策具有可解释性。本书探索了可解释性的概念,介绍了许多简单的可解释模型,包括决策树、决策规则和线性回归等。本书的重点是模型不可知方法,用于解释黑盒模型(如特征重要性和累积局部效应),以及用Shapley 值和局部代理模型解释单个实例预测。此外,本书介绍了深度神经网络的可解释性方法。本书深入解释并批判性地讨论所有的可解释方法,如它们在黑盒下的运作机制,各自的优缺点,如何解释它们的输出结果。本书将帮助读者选择并正确应用*适用于特定机器学习项目的解释方法。本书适合机器学习从业者、数据科学家、统计学家及任何对机器学习模型可解释性感兴趣的读者阅读。

可解释机器学习 黑盒模型可解释性理解指南(第2版) 目录

第1 章 引 言 1
1.1 故事时间 1
1.1.1 闪电不会击中两次 2
1.1.2 信任跌落 4
1.1.3 费米回形针 5
1.2 什么是机器学习 7
1.3 术语 8
第2 章 可解释性 11
2.1 可解释性的重要性 11
2.2 可解释性方法分类 16
2.3 可解释性的范围 17
2.3.1 算法透明度 17
2.3.2 全局、整体模型的可解释性 18
2.3.3 模型层面的全局模型可解释性 18
2.3.4 单个预测的局部可解释性 19
2.3.5 一组预测的局部可解释性 19
2.4 评估可解释性 19
2.5 解释的特性 20
2.6 人性化的解释 22
2.6.1 什么是解释 22
2.6.2 什么是好的解释 23
第3 章 数据集 27
3.1 自行车租赁(回归) 27
3.2 YouTube 垃圾评论(文本分类) 28
3.3 宫颈癌风险因素(分类) 29
第4 章 可解释模型 30
4.1 线性回归 31
4.1.1 解释 32
4.1.2 示例 34
4.1.3 可视化解释 35
4.1.4 解释单个预测 37
4.1.5 分类特征编码 38
4.1.6 线性模型能创造出好的解释吗 40
4.1.7 稀疏线性模型 40
4.1.8 优点 43
4.1.9 缺点 43
4.2 逻辑回归 43
4.2.1 线性回归用于分类存在的问题 43
4.2.2 理论 45
4.2.3 解释 46
4.2.4 示例 47
4.2.5 优点和缺点 48
4.2.6 软件 48
4.3 广义线性模型、广义加性模型及其他 49
4.3.1 非高斯结果——广义线性模型 50
4.3.2 交互作用 54
4.3.3 非线性效应——广义加性模型 58
4.3.4 优点 62
4.3.5 缺点 62
4.3.6 软件 63
4.3.7 进一步扩展 63
4.4 决策树 64
4.4.1 解释 65
4.4.2 示例 66
4.4.3 优点 67
4.4.4 缺点 68
4.4.5 软件 69
4.5 决策规则 69
4.5.1 从单一特征学习规则 71
4.5.2 顺序覆盖 74
4.5.3 贝叶斯规则列表 77
4.5.4 优点 82
4.5.5 缺点 83
4.5.6 软件和替代方案 83
4.6 RuleFit 84
4.6.1 解释和示例 84
4.6.2 理论 86
4.6.3 优点 88
4.6.4 缺点 89
4.6.5 软件和替代方案 89
4.7 其他可解释模型 90
4.7.1 朴素贝叶斯分类器 90
4.7.2 k 近邻法 90
第5 章 模型不可知方法 91
第6 章 基于样本的解释 93
第7 章 全局模型不可知方法 95
7.1 部分依赖图 95
7.1.1 基于部分依赖图的特征重要性 96
7.1.2 示例 97
7.1.3 优点 99
7.1.4 缺点 99
7.1.5 软件和替代方案 100
7.2 累积局部效应图 100
7.2.1 动机和直觉 100
7.2.2 理论 103
7.2.3 估算 104
7.2.4 示例 107
7.2.5 优点 114
7.2.6 缺点 115
7.2.7 软件与替代方案 116
7.3 特征交互作用 116
7.3.1 特征交互概念 116
7.3.2 理论:弗里德曼的H 统计量 117
7.3.3 示例 119
7.3.4 优点 121
7.3.5 缺点 121
7.3.6 实现 122
7.3.7 替代方案 122
7.4 函数分解 122
7.4.1 如何不计算分量I 124
7.4.2 函数分解 125
7.4.3 如何不计算分量II 125
7.4.4 函数ANOVA 126
7.4.5 依赖特征的广义函数ANOVA 127
7.4.6 累积局部效应图 128
7.4.7 统计回归模型 129
7.4.8 锦上添花:部分依赖图 130
7.4.9 优点 130
7.4.10 缺点 130
7.5 置换特征重要性 131
7.5.1 理论 131
7.5.2 应该在训练数据还是测试数据上计算重要性 132
7.5.3 示例和解释 134
7.5.4 优点 135
7.5.5 缺点 136
7.5.6 替代方案 137
7.5.7 软件 137
7.6 全局代理模型 138
7.6.1 理论 138
7.6.2 示例 139
7.6.3 优点 140
7.6.4 缺点 141
7.6.5 软件 141
7.7 原型和批评 141
7.7.1 理论 142
7.7.2 示例 146
7.7.3 优点 146
7.7.4 缺点 147
7.7.5 软件和替代方案 147
第8 章 局部模型不可知方法 148
8.1 个体条件期望 148
8.1.1 示例 149
8.1.2 优点 152
8.1.3 缺点 152
8.1.4 软件和替代方案 152
8.2 局部代理模型 152
8.2.1 表格数据的局部代理模型 154
8.2.2 文本的局部代理模型 156
8.2.3 图像的局部代理模型 158
8.2.4 优点 158
8.2.5 缺点 159
8.3 反事实解释 160
8.3.1 生成反事实解释 162
8.3.2 示例 166
8.3.3 优点 167
8.3.4 缺点 168
8.3.5 软件和替代方案 168
8.4 范围规则(锚点) 169
8.4.1 寻找锚点 170
8.4.2 复杂性和运行时间 172
8.4.3 表格数据示例 173
8.4.4 优点 176
8.4.5 缺点 176
8.4.6 软件和替代方案 176
8.5 Shapley 值 177
8.5.1 总体思路 177
8.5.2 示例和解释 179
8.5.3 Shapley 值详解 181
8.5.4 优点 184
8.5.5 缺点 184
8.5.6 软件和替代方案 186
8.6 SHAP 186
8.6.1 定义 186
8.6.2 KernelSHAP 188
8.6.3 TreeSHAP 190
8.6.4 示例 191
8.6.5 SHAP 特征重要性 192
8.6.6 SHAP 概要图 193
8.6.7 SHAP 依赖关系图 194
8.6.8 SHAP 交互作用值 195
8.6.9 聚类Shapley 值 196
8.6.10 优点 196
8.6.11 缺点 197
8.6.12 软件 197
第9 章 神经网络可解释性 198
9.1 学习特征 198
9.1.1 特征可视化 199
9.1.2 网络剖析 202
9.1.3 优点 206
9.1.4 缺点 206
9.1.5 软件和其他实现 207
9.2 像素归因 207
9.2.1 Vanilla 梯度法(显著性图) 209
9.2.2 DeconvNet 210
9.2.3 Grad-CAM 210
9.2.4 Guided Grad-CAM 212
9.2.5 SmoothGrad 212
9.2.6 示例 213
9.2.7 优点 214
9.2.8 缺点 214
9.2.9 软件 215
9.3 检测概念 215
9.3.1 TCAV:使用概念激活向量进行测试 216
9.3.2 示例 217
9.3.3 优点 218
9.3.4 缺点 219
9.3.5 其他基于概念的方法 219
9.3.6 软件 220
9.4 对抗性示例 220
9.4.1 方法和示例 220
9.4.2 网络安全视角 225
9.5 有影响实例 227
9.5.1 删除诊断 229
9.5.2 影响函数 233
9.5.3 识别有影响实例的优势 237
9.5.4 识别有影响实例的缺点 238
9.5.5 软件和替代方案 238
第10 章 透视水晶球 239
10.1 机器学习的未来 240
10.2 可解释性的未来 241
参考文献 244
致谢 251
展开全部

可解释机器学习 黑盒模型可解释性理解指南(第2版) 作者简介

Christoph Molnar,可解释机器学习研究员,目前在德国慕尼黑大学统计研究所攻读博士学位,目标是让机器学习模型的决策更容易被人类理解。著作Interpretable Machine Learning 受到业界高度关注。
郭涛,主要从事人工智能、智能计算、概率与统计学、现代软件工程等前沿交叉研究。出版多部译作,包括《深度强化学习图解》《机器学习图解》《集成学习实战》。

商品评论(0条)
暂无评论……
书友推荐
本类畅销
编辑推荐
返回顶部
中图网
在线客服