可解釋機器學習:黑盒模型可解釋性理解指南(第2版) Interpretable Machine Learning: A Guide For Making Black Box Models Explainable
Christoph Molnar 郭濤
- 出版商: 電子工業
- 出版日期: 2024-10-01
- 定價: $708
- 售價: 8.5 折 $602
- 語言: 簡體中文
- 頁數: 272
- ISBN: 7121490145
- ISBN-13: 9787121490149
-
相關分類:
Machine Learning
下單後立即進貨 (約4週~6週)
相關主題
商品描述
機器學習雖然在改進產品性能、產品流程和推進研究方面有很大的潛力,但仍面臨一大障礙——電腦無法解釋其預測結果。因此,本書旨在闡明如何使機器學習模型及其決策具有可解釋性。本書探索了可解釋性的概念,介紹了許多簡單的可解釋模型,包括決策樹、決策規則和線性回歸等。本書的重點是模型不可知方法,用於解釋黑盒模型(如特徵重要性和累積局部效應),以及用Shapley 值和局部代理模型解釋單個實例預測。此外,本書介紹了深度神經網絡的可解釋性方法。本書深入解釋並批判性地討論所有的可解釋方法,如它們在黑盒下的運作機制,各自的優缺點,如何解釋它們的輸出結果。本書將幫助讀者選擇並正確應用最適用於特定機器學習項目的解釋方法。本書適合機器學習從業者、數據科學家、統計學家及任何對機器學習模型可解釋性感興趣的讀者閱讀。
目錄大綱
第1 章 引 言 1
1.1 故事時間 1
1.1.1 閃電不會擊中兩次 2
1.1.2 信任跌落 4
1.1.3 費米回形針 5
1.2 什麽是機器學習 7
1.3 術語 8
第2 章 可解釋性 11
2.1 可解釋性的重要性 11
2.2 可解釋性方法分類 16
2.3 可解釋性的範圍 17
2.3.1 算法透明度 17
2.3.2 全局、整體模型的可解釋性 18
2.3.3 模型層面的全局模型可解釋性 18
2.3.4 單個預測的局部可解釋性 19
2.3.5 一組預測的局部可解釋性 19
2.4 評估可解釋性 19
2.5 解釋的特性 20
2.6 人性化的解釋 22
2.6.1 什麽是解釋 22
2.6.2 什麽是好的解釋 23
第3 章 數據集 27
3.1 自行車租賃(回歸) 27
3.2 YouTube 垃圾評論(文本分類) 28
3.3 宮頸癌風險因素(分類) 29
第4 章 可解釋模型 30
4.1 線性回歸 31
4.1.1 解釋 32
4.1.2 示例 34
4.1.3 可視化解釋 35
4.1.4 解釋單個預測 37
4.1.5 分類特徵編碼 38
4.1.6 線性模型能創造出好的解釋嗎 40
4.1.7 稀疏線性模型 40
4.1.8 優點 43
4.1.9 缺點 43
4.2 邏輯回歸 43
4.2.1 線性回歸用於分類存在的問題 43
4.2.2 理論 45
4.2.3 解釋 46
4.2.4 示例 47
4.2.5 優點和缺點 48
4.2.6 軟件 48
4.3 廣義線性模型、廣義加性模型及其他 49
4.3.1 非高斯結果——廣義線性模型 50
4.3.2 交互作用 54
4.3.3 非線性效應——廣義加性模型 58
4.3.4 優點 62
4.3.5 缺點 62
4.3.6 軟件 63
4.3.7 進一步擴展 63
4.4 決策樹 64
4.4.1 解釋 65
4.4.2 示例 66
4.4.3 優點 67
4.4.4 缺點 68
4.4.5 軟件 69
4.5 決策規則 69
4.5.1 從單一特徵學習規則 71
4.5.2 順序覆蓋 74
4.5.3 貝葉斯規則列表 77
4.5.4 優點 82
4.5.5 缺點 83
4.5.6 軟件和替代方案 83
4.6 RuleFit 84
4.6.1 解釋和示例 84
4.6.2 理論 86
4.6.3 優點 88
4.6.4 缺點 89
4.6.5 軟件和替代方案 89
4.7 其他可解釋模型 90
4.7.1 樸素貝葉斯分類器 90
4.7.2 k 近鄰法 90
第5 章 模型不可知方法 91
第6 章 基於樣本的解釋 93
第7 章 全局模型不可知方法 95
7.1 部分依賴圖 95
7.1.1 基於部分依賴圖的特徵重要性 96
7.1.2 示例 97
7.1.3 優點 99
7.1.4 缺點 99
7.1.5 軟件和替代方案 100
7.2 累積局部效應圖 100
7.2.1 動機和直覺 100
7.2.2 理論 103
7.2.3 估算 104
7.2.4 示例 107
7.2.5 優點 114
7.2.6 缺點 115
7.2.7 軟件與替代方案 116
7.3 特徵交互作用 116
7.3.1 特徵交互概念 116
7.3.2 理論:弗里德曼的H 統計量 117
7.3.3 示例 119
7.3.4 優點 121
7.3.5 缺點 121
7.3.6 實現 122
7.3.7 替代方案 122
7.4 函數分解 122
7.4.1 如何不計算分量I 124
7.4.2 函數分解 125
7.4.3 如何不計算分量II 125
7.4.4 函數ANOVA 126
7.4.5 依賴特徵的廣義函數ANOVA 127
7.4.6 累積局部效應圖 128
7.4.7 統計回歸模型 129
7.4.8 錦上添花:部分依賴圖 130
7.4.9 優點 130
7.4.10 缺點 130
7.5 置換特徵重要性 131
7.5.1 理論 131
7.5.2 應該在訓練數據還是測試數據上計算重要性 132
7.5.3 示例和解釋 134
7.5.4 優點 135
7.5.5 缺點 136
7.5.6 替代方案 137
7.5.7 軟件 137
7.6 全局代理模型 138
7.6.1 理論 138
7.6.2 示例 139
7.6.3 優點 140
7.6.4 缺點 141
7.6.5 軟件 141
7.7 原型和批評 141
7.7.1 理論 142
7.7.2 示例 146
7.7.3 優點 146
7.7.4 缺點 147
7.7.5 軟件和替代方案 147
第8 章 局部模型不可知方法 148
8.1 個體條件期望 148
8.1.1 示例 149
8.1.2 優點 152
8.1.3 缺點 152
8.1.4 軟件和替代方案 152
8.2 局部代理模型 152
8.2.1 表格數據的局部代理模型 154
8.2.2 文本的局部代理模型 156
8.2.3 圖像的局部代理模型 158
8.2.4 優點 158
8.2.5 缺點 159
8.3 反事實解釋 160
8.3.1 生成反事實解釋 162
8.3.2 示例 166
8.3.3 優點 167
8.3.4 缺點 168
8.3.5 軟件和替代方案 168
8.4 範圍規則(錨點) 169
8.4.1 尋找錨點 170
8.4.2 復雜性和運行時間 172
8.4.3 表格數據示例 173
8.4.4 優點 176
8.4.5 缺點 176
8.4.6 軟件和替代方案 176
8.5 Shapley 值 177
8.5.1 總體思路 177
8.5.2 示例和解釋 179
8.5.3 Shapley 值詳解 181
8.5.4 優點 184
8.5.5 缺點 184
8.5.6 軟件和替代方案 186
8.6 SHAP 186
8.6.1 定義 186
8.6.2 KernelSHAP 188
8.6.3 TreeSHAP 190
8.6.4 示例 191
8.6.5 SHAP 特徵重要性 192
8.6.6 SHAP 概要圖 193
8.6.7 SHAP 依賴關系圖 194
8.6.8 SHAP 交互作用值 195
8.6.9 聚類Shapley 值 196
8.6.10 優點 196
8.6.11 缺點 197
8.6.12 軟件 197
第9 章 神經網絡可解釋性 198
9.1 學習特徵 198
9.1.1 特徵可視化 199
9.1.2 網絡剖析 202
9.1.3 優點 206
9.1.4 缺點 206
9.1.5 軟件和其他實現 207
9.2 像素歸因 207
9.2.1 Vanilla 梯度法(顯著性圖) 209
9.2.2 DeconvNet 210
9.2.3 Grad-CAM 210
9.2.4 Guided Grad-CAM 212
9.2.5 SmoothGrad 212
9.2.6 示例 213
9.2.7 優點 214
9.2.8 缺點 214
9.2.9 軟件 215
9.3 檢測概念 215
9.3.1 TCAV:使用概念激活向量進行測試 216
9.3.2 示例 217
9.3.3 優點 218
9.3.4 缺點 219
9.3.5 其他基於概念的方法 219
9.3.6 軟件 220
9.4 對抗性示例 220
9.4.1 方法和示例 220
9.4.2 網絡安全視角 225
9.5 有影響實例 227
9.5.1 刪除診斷 229
9.5.2 影響函數 233
9.5.3 識別有影響實例的優勢 237
9.5.4 識別有影響實例的缺點 238
9.5.5 軟件和替代方案 238
第10 章 透視水晶球 239
10.1 機器學習的未來 240
10.2 可解釋性的未來 241
參考文獻 244
致謝 251