前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Integrated Gradients:打开深度模型的黑箱

Integrated Gradients:打开深度模型的黑箱

作者头像
Houye
发布2021-04-22 10:56:29
1.2K0
发布2021-04-22 10:56:29
举报
文章被收录于专栏:图与推荐

最近,关于Attention是否可以解释模型的输出受到越来越多的质疑,参见"Attention is not not Explanation"[1] 和 "Attention is not not Explanation"[2]。今天,我们介绍一种更加合理并且有效的解释模型输出的方法:Integrated Gradients,出自Google 2017年的一篇论文"Axiomatic Attribution for Deep Networks"[3]。

简单来说,「Integrated Gradients将输入的第

i

个特征的归因(attribution)定义为:从基线(baseline)

x^{\prime}_i

到输入

x_i

之间的直线路径的路径积分」

\text { IntegratedGrads }_{i}(x)::=\left(x_{i}-x_{i}^{\prime}\right) \times \int_{\alpha=0}^{1} \frac{\partial F\left(x^{\prime}+\alpha \times\left(x-x^{\prime}\right)\right)}{\partial x_{i}} d \alpha

其中

F: \mathrm{R}^{n} \rightarrow[0,1]

代表一个神经网络,

\frac{\partial F(x)}{\partial x_{i}}

F(x)

在第

i

维上的梯度。

因此想要使用这一方法来解释我们自己的深度模型需要做两步:

  1. 「选择一个Benchmark」, 也就是上文中的baseline。文章推荐使用让网络输出接近0的baseline。对于CV任务,可以使用全黑图像或精心设计的对抗样本作为baseline。对于文本任务,可以使用全0的向量。
  2. 「计算积分梯度」。在实际应用中,可以采用在从
x^{\prime}

x

的直线路径上插值,然后对这些插值的梯度求和的方式进行:

\begin{array}{r} \text { IntegratedGrads }_{i}^{a p p r o x}(x)::= \left(x_{i}-x_{i}^{\prime}\right) \times \Sigma_{k=1}^{m} \frac{\left.\partial F\left(x^{\prime}+\frac{k}{m} \times\left(x-x^{\prime}\right)\right)\right)}{\partial x_{i}} \times \frac{1}{m} \end{array}

当然,这个方法已经在很多用于解释和理解模型的开源库中实现,这里推荐PyTorch官方提供Captum[4],其中大部分的例子都使用了Integrated Gradients,可见其强大之处。

以上是这篇论文的简短概括。但其实这篇论文的很多篇幅是在说明Integrated Gradients具有的一些优良性质:

  • 「Sensitivity」: 如果baseline和input在某一特征上不同,但却具有不同的输出,那么这一特征应具有非零的归因。Gradients方法违反了这一性质。
  • 「Implementation Invariance」: 对于两个函数等效的网络(输入相同则输出相同),归因应当一致。使用离散梯度的LRP和DeepLift方法违反了这一性质。
  • 「Completeness」: 对于输入
x

和baseline

x^{\prime}

,网络输出的差异等于这两者各维度归因的加和。

  • 「Linearity」: 对于两个网络
f_1

f_2

的组合

a \cdot f_1 + b \cdot f_2

,其归因等于这两个网络各自归因的加权和,权重为

a

b

  • 「Symmetry-Preserving」: 对于一个满足
F(x,y)=F(y,x)

的网络

F

,其给予

x

y

的归因应当是完全相同的。


本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-04-19,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 图神经网络与推荐系统 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档