可解釋機器學習:黑盒模型可解釋性理解指南(第2版)
定 價:118 元
- 作者:(德)Christoph Molnar (克里斯托夫·莫爾納)
- 出版時間:2024/10/1
- ISBN:9787121490149
- 出 版 社:電子工業(yè)出版社
- 中圖法分類:TP181-34
- 頁碼:272
- 紙張:
- 版次:01
- 開本:16開
機器學習雖然在改進產(chǎn)品性能、產(chǎn)品流程和推進研究方面有很大的潛力,但仍面臨一大障礙——計算機無法解釋其預測結果。因此,本書旨在闡明如何使機器學習模型及其決策具有可解釋性。本書探索了可解釋性的概念,介紹了許多簡單的可解釋模型,包括決策樹、決策規(guī)則和線性回歸等。本書的重點是模型不可知方法,用于解釋黑盒模型(如特征重要性和累積局部效應),以及用Shapley 值和局部代理模型解釋單個實例預測。此外,本書介紹了深度神經(jīng)網(wǎng)絡的可解釋性方法。本書深入解釋并批判性地討論所有的可解釋方法,如它們在黑盒下的運作機制,各自的優(yōu)缺點,如何解釋它們的輸出結果。本書將幫助讀者選擇并正確應用最適用于特定機器學習項目的解釋方法。本書適合機器學習從業(yè)者、數(shù)據(jù)科學家、統(tǒng)計學家及任何對機器學習模型可解釋性感興趣的讀者閱讀。
Christoph Molnar,可解釋機器學習研究員,目前在德國慕尼黑大學統(tǒng)計研究所攻讀博士學位,目標是讓機器學習模型的決策更容易被人類理解。著作Interpretable Machine Learning 受到業(yè)界高度關注。
郭濤,主要從事人工智能、智能計算、概率與統(tǒng)計學、現(xiàn)代軟件工程等前沿交叉研究。出版多部譯作,包括《深度強化學習圖解》《機器學習圖解》《集成學習實戰(zhàn)》。
第1 章 引 言 1
1.1 故事時間 1
1.1.1 閃電不會擊中兩次 2
1.1.2 信任跌落 4
1.1.3 費米回形針 5
1.2 什么是機器學習 7
1.3 術語 8
第2 章 可解釋性 11
2.1 可解釋性的重要性 11
2.2 可解釋性方法分類 16
2.3 可解釋性的范圍 17
2.3.1 算法透明度 17
2.3.2 全局、整體模型的可解釋性 18
2.3.3 模型層面的全局模型可解釋性 18
2.3.4 單個預測的局部可解釋性 19
2.3.5 一組預測的局部可解釋性 19
2.4 評估可解釋性 19
2.5 解釋的特性 20
2.6 人性化的解釋 22
2.6.1 什么是解釋 22
2.6.2 什么是好的解釋 23
第3 章 數(shù)據(jù)集 27
3.1 自行車租賃(回歸) 27
3.2 YouTube 垃圾評論(文本分類) 28
3.3 宮頸癌風險因素(分類) 29
第4 章 可解釋模型 30
4.1 線性回歸 31
4.1.1 解釋 32
4.1.2 示例 34
4.1.3 可視化解釋 35
4.1.4 解釋單個預測 37
4.1.5 分類特征編碼 38
4.1.6 線性模型能創(chuàng)造出好的解釋嗎 40
4.1.7 稀疏線性模型 40
4.1.8 優(yōu)點 43
4.1.9 缺點 43
4.2 邏輯回歸 43
4.2.1 線性回歸用于分類存在的問題 43
4.2.2 理論 45
4.2.3 解釋 46
4.2.4 示例 47
4.2.5 優(yōu)點和缺點 48
4.2.6 軟件 48
4.3 廣義線性模型、廣義加性模型及其他 49
4.3.1 非高斯結果——廣義線性模型 50
4.3.2 交互作用 54
4.3.3 非線性效應——廣義加性模型 58
4.3.4 優(yōu)點 62
4.3.5 缺點 62
4.3.6 軟件 63
4.3.7 進一步擴展 63
4.4 決策樹 64
4.4.1 解釋 65
4.4.2 示例 66
4.4.3 優(yōu)點 67
4.4.4 缺點 68
4.4.5 軟件 69
4.5 決策規(guī)則 69
4.5.1 從單一特征學習規(guī)則 71
4.5.2 順序覆蓋 74
4.5.3 貝葉斯規(guī)則列表 77
4.5.4 優(yōu)點 82
4.5.5 缺點 83
4.5.6 軟件和替代方案 83
4.6 RuleFit 84
4.6.1 解釋和示例 84
4.6.2 理論 86
4.6.3 優(yōu)點 88
4.6.4 缺點 89
4.6.5 軟件和替代方案 89
4.7 其他可解釋模型 90
4.7.1 樸素貝葉斯分類器 90
4.7.2 k 近鄰法 90
第5 章 模型不可知方法 91
第6 章 基于樣本的解釋 93
第7 章 全局模型不可知方法 95
7.1 部分依賴圖 95
7.1.1 基于部分依賴圖的特征重要性 96
7.1.2 示例 97
7.1.3 優(yōu)點 99
7.1.4 缺點 99
7.1.5 軟件和替代方案 100
7.2 累積局部效應圖 100
7.2.1 動機和直覺 100
7.2.2 理論 103
7.2.3 估算 104
7.2.4 示例 107
7.2.5 優(yōu)點 114
7.2.6 缺點 115
7.2.7 軟件與替代方案 116
7.3 特征交互作用 116
7.3.1 特征交互概念 116
7.3.2 理論:弗里德曼的H 統(tǒng)計量 117
7.3.3 示例 119
7.3.4 優(yōu)點 121
7.3.5 缺點 121
7.3.6 實現(xiàn) 122
7.3.7 替代方案 122
7.4 函數(shù)分解 122
7.4.1 如何不計算分量I 124
7.4.2 函數(shù)分解 125
7.4.3 如何不計算分量II 125
7.4.4 函數(shù)ANOVA 126
7.4.5 依賴特征的廣義函數(shù)ANOVA 127
7.4.6 累積局部效應圖 128
7.4.7 統(tǒng)計回歸模型 129
7.4.8 錦上添花:部分依賴圖 130
7.4.9 優(yōu)點 130
7.4.10 缺點 130
7.5 置換特征重要性 131
7.5.1 理論 131
7.5.2 應該在訓練數(shù)據(jù)還是測試數(shù)據(jù)上計算重要性 132
7.5.3 示例和解釋 134
7.5.4 優(yōu)點 135
7.5.5 缺點 136
7.5.6 替代方案 137
7.5.7 軟件 137
7.6 全局代理模型 138
7.6.1 理論 138
7.6.2 示例 139
7.6.3 優(yōu)點 140
7.6.4 缺點 141
7.6.5 軟件 141
7.7 原型和批評 141
7.7.1 理論 142
7.7.2 示例 146
7.7.3 優(yōu)點 146
7.7.4 缺點 147
7.7.5 軟件和替代方案 147
第8 章 局部模型不可知方法 148
8.1 個體條件期望 148
8.1.1 示例 149
8.1.2 優(yōu)點 152
8.1.3 缺點 152
8.1.4 軟件和替代方案 152
8.2 局部代理模型 152
8.2.1 表格數(shù)據(jù)的局部代理模型 154
8.2.2 文本的局部代理模型 156
8.2.3 圖像的局部代理模型 158
8.2.4 優(yōu)點 158
8.2.5 缺點 159
8.3 反事實解釋 160
8.3.1 生成反事實解釋 162
8.3.2 示例 166
8.3.3 優(yōu)點 167
8.3.4 缺點 168
8.3.5 軟件和替代方案 168
8.4 范圍規(guī)則(錨點) 169
8.4.1 尋找錨點 170
8.4.2 復雜性和運行時間 172
8.4.3 表格數(shù)據(jù)示例 173
8.4.4 優(yōu)點 176
8.4.5 缺點 176
8.4.6 軟件和替代方案 176
8.5 Shapley 值 177
8.5.1 總體思路 177
8.5.2 示例和解釋 179
8.5.3 Shapley 值詳解 181
8.5.4 優(yōu)點 184
8.5.5 缺點 184
8.5.6 軟件和替代方案 186
8.6 SHAP 186
8.6.1 定義 186
8.6.2 KernelSHAP 188
8.6.3 TreeSHAP 190
8.6.4 示例 191
8.6.5 SHAP 特征重要性 192
8.6.6 SHAP 概要圖 193
8.6.7 SHAP 依賴關系圖 194
8.6.8 SHAP 交互作用值 195
8.6.9 聚類Shapley 值 196
8.6.10 優(yōu)點 196
8.6.11 缺點 197
8.6.12 軟件 197
第9 章 神經(jīng)網(wǎng)絡可解釋性 198
9.1 學習特征 198
9.1.1 特征可視化 199
9.1.2 網(wǎng)絡剖析 202
9.1.3 優(yōu)點 206
9.1.4 缺點 206
9.1.5 軟件和其他實現(xiàn) 207
9.2 像素歸因 207
9.2.1 Vanilla 梯度法(顯著性圖) 209
9.2.2 DeconvNet 210
9.2.3 Grad-CAM 210
9.2.4 Guided Grad-CAM 212
9.2.5 SmoothGrad 212
9.2.6 示例 213
9.2.7 優(yōu)點 214
9.2.8 缺點 214
9.2.9 軟件 215
9.3 檢測概念 215
9.3.1 TCAV:使用概念激活向量進行測試 216
9.3.2 示例 217
9.3.3 優(yōu)點 218
9.3.4 缺點 219
9.3.5 其他基于概念的方法 219
9.3.6 軟件 220
9.4 對抗性示例 220
9.4.1 方法和示例 220
9.4.2 網(wǎng)絡安全視角 225
9.5 有影響實例 227
9.5.1 刪除診斷 229
9.5.2 影響函數(shù) 233
9.5.3 識別有影響實例的優(yōu)勢 237
9.5.4 識別有影響實例的缺點 238
9.5.5 軟件和替代方案 238
第10 章 透視水晶球 239
10.1 機器學習的未來 240
10.2 可解釋性的未來 241
參考文獻 244
致謝 251