SHAP解释模型(二)

本文在SHAP解析模型之后,又尝试了一些SHAP新版本的进阶用法,整理并与大家分享.

1 环境配置

以下实验使用当前最新版本shap:0.41.0,同时安装xgboost作为预测模型,并使用较高版本的matplotlib(低版本有时画图报错).

$ pip install shap==0.41.0
$ pip install xgboost==0.82
$ pip install matplotlib==3.5.2

2 实验数据

仍延用波士顿房价数据集,由于有些方法需要explainer对象,因此构造了shap_value_obj

import shap
import xgboost
X,y = shap.datasets.boston()

model = xgboost.train({"learning_rate": 0.01}, xgboost.DMatrix(X, label=y), 100)
explainer = shap.TreeExplainer(model)
shap_values = explainer.shap_values(X)
shap_values_obj = explainer(X)

3 单特征实验

首先,尝试一些单特征分析方法.

3.1 分析单个实例

在图中主要关注base_value,它是预测的均值,而f(x)展示了该实例的具体预测值,红色和蓝色区域的颜色和宽度展示了主要特征的影响和方向.

shap.force_plot(explainer.expected_value, shap_values[0,:], X.iloc[0,:])

SHAP解释模型(二)

3.2 决策图

决策图可在一张图上展示多个实例的特征对结果的影响,一般情况下,位置越靠上的特征影响越大.本例中设定feature_order=’hclust’,则是按shap value进行聚类,再按特征的相关度排序,因此线条看起来比较直;其x轴描述的是各个特征对最终预测值拉扯的方向和力度.
使用该方法也可以用于异常值检测,如果有一条线明显与其它线的方向不同,则可能是异常值.

features = X[:20] # 只分析前20个样本
shap_values = explainer.shap_values(features)
shap.decision_plot(explainer.expected_value, shap_values,
                   features, feature_order='hclust')

SHAP解释模型(二)

3.3 热力图

热力图的横轴是每个实例,纵轴是每个特征对该实例的影响,用颜色描述该特征对该实例的影响方向和力度,比如x轴在300附近的实例,其预测值f(x)在0.5附近,原因是LSTAT对它起到正向作用,而RM对它起负向作用,其它特征影响比较小(浅色).

shap.plots.heatmap(shap_values_obj)

SHAP解释模型(二)

4 特征组合实验

特征组合是数据分析的重要因素,下面实验对特征组合的挖掘方法.

4.1 带聚类的特征图

先对shap value做聚类,此时shap_value值类似的实例被分成一组,相关性强的特征就能显现出来,再画条形图时,展示了特征的相关性.

clustering = shap.utils.hclust(X, y)
shap.plots.bar(shap_values_obj,
               clustering=clustering,
               clustering_cutoff=0.5)

SHAP解释模型(二)

4.2 依赖图

依赖图分析一个特征对另一个特征的影响,示图类似shap散点图,横坐标为特征”RM”的取值范围,纵坐标为其取值对应的shap value,颜色分析的是另一特征”RAD”在”RM”变化过程中的分布.

shap.dependence_plot("RM", shap_values_obj.values, X, interaction_index='RAD')

SHAP解释模型(二)

4.3 交互图

交互图对角线上展示的是该特征与预测值的关系,它与最普通的shap plot相一致,对角线以外其它位置是特征两两组合对预测的影响.每个子图的横坐标为shap value,也就是说,子图越宽,该特征组合对结果影响越大.

shap_interaction_values = explainer.shap_interaction_values(X)
shap.summary_plot(shap_interaction_values, X)

SHAP解释模型(二)

4.4 特征组合的影响

将交互图按特征重要性排序后绘图.个人认为下图非常有用,它将单特征与特征组合画在一张图中,可以从中分析出哪些特征组合更为重要.

shap_interaction_values = explainer.shap_interaction_values(X)
shap.summary_plot(shap_interaction_values, X, max_display=10, plot_type="compact_dot")

SHAP解释模型(二)

5 参考

用 SHAP 可视化解释机器学习模型实用指南(下)
数据科学家必备|可解释模型SHAP可视化全解析

Original: https://blog.csdn.net/xieyan0811/article/details/126448730
Author: xieyan0811
Title: SHAP解释模型(二)

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/618313/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球