首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >一个可解释但不可解释的ML模型示例

一个可解释但不可解释的ML模型示例
EN

Data Science用户
提问于 2021-08-07 05:06:54
回答 1查看 343关注 0票数 0

这个职位试图解释ML模型的可解释性和可解释性之间的区别。然而,这一解释有些不明确。有人能提供一些可解释但不可解释的模型的具体例子吗?

EN

回答 1

Data Science用户

回答已采纳

发布于 2021-08-07 07:52:02

我在这里跟踪辛西娅·鲁丁的定义 (以及基于它的基思·奥鲁克( Keith‘’Rourke)撰写 ):

  • 可解释的ML -使用一个黑匣子然后解释它。
  • 可解释的ML -使用的模型不是黑匣子。

因此,决策树(例如,决策树)是可解释的,因为它本身就通过节点/拆分点使其决策显式化。根据上述定义,它是不可解释的,因为它不是一个黑箱模型(根据定义,可解释模型不是可解释模型的子集)。

相比之下,CNN是一个暗含编码决策过程的黑匣子模型。然而,事后分析是使这样一个模型可以解释的一种方法。例如,您可以评估每个层的功能映射激活情况,如在本文中所做的那样:

例如,这一分析显示,第二层被边缘之类的模式激活,而第三层则检测到更复杂的模式。显然,这种事后分析与决策树的显式编码规则具有不同的质量。

(这与给定的定义有些矛盾,你可以说,可解释的模型需要更大程度的解释,而可解释的模型则从本质上解释它们的决定-但这只是我的措辞,而不是上述文章的作者所说的。)

票数 1
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/99808

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档