首页
学习
活动
专区
圈层
工具
发布
1
机器学习实战 | Python机器学习算法应用实践
2
机器学习实战 | SKLearn入门与简单应用案例
3
机器学习实战 | SKLearn最全应用指南
4
机器学习实战 | XGBoost建模应用详解
5
机器学习实战 | LightGBM建模应用详解
6
机器学习实战 | 综合项目-电商销量预估
7
机器学习实战 | 综合项目-电商销量预估进阶方案
8
机器学习实战 | 机器学习特征工程最全解读
9
机器学习实战 | 自动化特征工程工具Featuretools应用
10
机器学习实战 | AutoML自动化机器学习建模
11
图数据挖掘!使用图分析+AI进行保险欺诈检测 ⛵
12
20 行代码!带你快速构建基础文本搜索引擎 ⛵
13
员工离职困扰?来看AI如何解决,基于人力资源分析的 ML 模型构建全方案 ⛵
14
AI 音辨世界:艺术小白的我,靠这个AI模型,速识音乐流派选择音乐 ⛵
15
钻石价格预测的ML全流程!从模型构建调优道部署应用!⛵
16
二手车价格预测 | 构建AI模型并部署Web应用 ⛵
17
毫秒级!千万人脸库快速比对,上亿商品图片检索,背后的极速检索用了什么神器? ⛵
18
机器学习模型太慢?来看看英特尔(R) 扩展加速 ⛵
19
全自动化机器学习建模!效果吊打初级炼丹师! ⛵
20
机器学习建模高级用法!构建企业级AI建模流水线 ⛵
21
2022了你还不会『低代码』?数据科学也能玩转Low-Code啦! ⛵
22
AI带你省钱旅游!精准预测民宿房源价格!
23
精准营销!用机器学习完成客户分群!⛵
24
2022极端高温!机器学习如何预测森林火灾?⛵ 万物AI
25
2022年Python顶级自动化特征工程框架⛵
26
AI医疗高精尖!基于AI的新药研发!⛵
27
数据驱动!精细化运营!用机器学习做客户生命周期与价值预估!⛵
28
2022!影响百万用户金融信用评分,Equifax被告上法庭,罪魁祸首——『数据漂移』!⛵
29
精准用户画像!商城用户分群2.0!⛵
30
代码案例详解!如何让机器学习模型自解释!⛵
31
whylogs工具库的工业实践!机器学习模型流程与效果监控 ⛵
32
一文读懂!异常检测全攻略!从统计方法到机器学习 ⛵
33
图解来啦!机器学习工业部署最佳实践!10分钟上手机器学习部署与大规模扩展 ⛵
34
『航班乘客满意度』场景数据分析建模与业务归因解释 ⛵
35
全都会!预测蛋白质标注!创建讲义!解释数学公式!最懂科学的智能NLP模型Galactica尝鲜 ⛵
36
深度解析数据清理和特征工程!5本面向数据科学家的顶级书籍推荐 ⛵
37
就离谱!使用机器学习预测2022世界杯:小组赛挺准,但冠亚季军都错了 ⛵

代码案例详解!如何让机器学习模型自解释!⛵

本文讲解一种比较全能的『机器学习模型可解释性』方法——SHAP。通过调用Python的SHAP工具库,对机器学习模型做可解释性分析,判断不同特征对于当前模型的重要程度。


💡 作者:韩信子@ShowMeAI 📘 机器学习实战系列:https://www.showmeai.tech/tutorials/41 📘 本文地址:https://www.showmeai.tech/article-detail/337 📢 声明:版权所有,转载请联系平台与作者并注明出处 📢 收藏ShowMeAI查看更多精彩内容

近年来,可解释的人工智能(XAI)和可解释的机器学习引起了越来越多的关注,因为直接把模型当做黑箱使用信任度和可控度都会受影响。有一些领域,模型的可解释性更加重要,例如在医疗领域,患者会质疑为什么模型诊断出他们患有某种疾病。

在本篇内容中, ShowMeAI 将给大家讲解一个流行的模型解释方法 SHAP(SHapley Additive exPlanations),并基于实际案例讲解如何基于工具库对模型做解释。

💡 模型可解释方法的划分

我们对各类模型可解释方法进行划分,有以下一些划分维度:

  • 模型无关和模型特定:一些方法可用于各种模型,而另一些方法是为解释特定模型而创建的。
  • 全局和局部解释:本地意味着进行分析以了解如何做出特定预测。 另一方面,全局解释研究了影响所有预测的因素。
  • 基于模型和事后归因:基于模型的模型是我们可以直接理解的模型,例如线性回归模型。 另一类是事后解释模型的归因方法,大多数方法都属于这一类。

💡 SHAP 原理

📘SHAP 全称是 SHapley Additive exPlanation,是比较全能的模型可解释性的方法,既可作用于全局解释,也可以局部解释,即单个样本来看,模型给出的预测值和某些特征可能的关系,可以用SHAP来解释。

SHAP 属于模型事后解释的方法,核心思想是计算特征对模型输出的边际贡献,再从全局和局部两个层面对『黑盒模型』进行解释。SHAP 构建一个加性的解释模型,所有的特征都视为『贡献者』。

对于每个预测样本,模型都产生一个预测值,SHAP value 就是该样本中每个特征所分配到的数值。

基本思想:计算一个特征加入到模型时的边际贡献,然后考虑到该特征在所有的特征序列的情况下不同的边际贡献,取均值,即某该特征的 SHAP baseline value。

💡 案例实战讲解

我们来拿一个场景案例讲解一下SHAP如何进行模型可解释分析,用到的数据是人口普查数据,我们会调用 Python 的工具库库 SHAP 直接分析模型。

💦 数据说明

ShowMeAI在本例中使用到的是 🏆美国人口普查收入数据集,任务是根据人口基本信息预测其年收入是否可能超过 50,000 美元,是一个二分类问题。

数据集可以在以下地址下载:

数据从美国1994年人口普查数据库抽取而来,可以用来预测居民收入是否超过50K/year。

该数据集类变量为年收入是否超过50k,属性变量包含年龄、工种、学历、职业、人种等重要信息,值得一提的是,14个属性变量中有7个类别型变量。

数据集各属性是:其中序号0~13是属性,14是类别。

字段序号

字段名

含义

类型

0

age

年龄

Double

1

workclass

工作类型*

string

2

fnlwgt

序号

string

3

education

教育程度*

string

4

education_num

受教育时间

double

5

maritial_status

婚姻状况*

string

6

occupation

职业*

string

7

relationship

关系*

string

8

race

种族*

string

9

sex

性别*

string

10

capital_gain

资本收益

string

11

capital_loss

资本损失

string

12

hours_per_week

每周工作小时数

double

13

native_country

原籍*

string

14(label)

income

收入标签

string

💦 SHAP计算 & 模型解释

代码语言:python
代码运行次数:0
复制
from sklearn.model_selection import train_test_split
import lightgbm as lgb
import shap

shap.initjs()
X,y = shap.datasets.adult()
X_display,y_display = shap.datasets.adult(display=True)# create a train/test split

# 训练集与测试集切分及处理
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=7)
d_train = lgb.Dataset(X_train, label=y_train)
d_test = lgb.Dataset(X_test, label=y_test)# create a simple model

# 模型参数
params = {
    "max_bin": 512,
    "learning_rate": 0.05,
    "boosting_type": "gbdt",
    "objective": "binary",
    "metric": "binary_logloss",
    "num_leaves": 10,
    "verbose": -1,
    "min_data": 100,
    "boost_from_average": True
}

# 模型训练
model = lgb.train(params, d_train, 10000, valid_sets=[d_test], early_stopping_rounds=50, verbose_eval=1000)# explain the model

# 模型解释
explainer = shap.TreeExplainer(model)
shap_values = explainer.shap_values(X)# visualize the impact of each features
shap.summary_plot(shap_values, X)

上图中的SHAP结果值,告诉我们不同的特征维度(输入)对于当前模型的重要程度,包括总体的重要程度,以及对每个类别的判定的影响程度。

参考资料

推荐阅读

下一篇
举报
领券