首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >可解释的机器学习和可解释的机器学习有什么区别?

可解释的机器学习和可解释的机器学习有什么区别?
EN

Data Science用户
提问于 2020-03-24 07:56:23
回答 5查看 5K关注 0票数 20

奥鲁克说,可解释的ML使用黑匣子模型,然后再解释它,而可解释的ML使用非黑匣子的模型。

克里斯多夫·莫尔纳说,可解释的ML指的是人类能够理解(模型的)决定的原因的程度。然后,他使用可解释的ML和可解释的ML进行交互。

维基百科在谈到“可解释的人工智能”时说,它指的是人工智能的方法和技术,这样人类专家就可以理解解决方案的结果。这与机器学习中黑匣子的概念形成了鲜明的对比,在机器学习中,即使是他们的设计者也无法解释为什么人工智能做出了特定的决定。解释人工智能决定的技术挑战有时被称为可解释性问题。

杜世-韦利兹和金说,可解释的机器学习系统为它们的输出提供了解释。

很明显,有很多定义,但他们并不完全同意。最后,应该解释什么:模型的结果,模型本身,或者模型是如何被遗漏的?解释和解释有什么区别?

EN

回答 5

Data Science用户

发布于 2020-07-14 11:54:54

我发现了本文作者是辛西娅·鲁丁,它更详细地说明了这两个术语之间的差异,这与O‘’Rourke的来源一致。

其核心是关于解释的时间和机制:

先验(可解释)与后验(可解释)

我发现这句话很有帮助,并与我自己的想法一致(强调我的观点):

与其试图创建具有内在可解释性的模型,最近还出现了大量关于“可解释的ML”的工作,其中创建了第二个(后自定义)模型来解释第一个黑匣子模型。这是有问题的。解释往往不可靠,并可能误导,正如我们在下面讨论。如果我们使用内在可解释的模型,它们会提供自己的解释,这些解释忠实于模型实际计算的内容。

简而言之,一个可解释的模型能够输出人类可以理解的计算摘要,使我们能够理解它是如何得出具体结论的。正因为如此,一个人才能通过选择特定的输入来创造一个特定的理想结果。

然而,一个“仅仅”可解释的模型并不能提供这种输入,我们需要第二个模型或检查模式来创建一个“关于其机制的假设”,这将有助于解释结果,但不允许手工确定地重建结果。

票数 15
EN

Data Science用户

发布于 2020-06-14 04:27:42

至于解释,我们需要每个层次的可解释性/可解释性-

  • 数据解释- tsne,简单的绘图。
  • 模型可解释性-通过创建代理模型
  • 全局可解释性-所有训练数据的特征重要性
  • 局部可解释性-对每个预测的解释。

虹膜数据集上所有类型的可解释性,看一看都会很有趣。

我自己对每天都会出现的与xai相关的新词感到困惑(即使在开发了我们自己的xai框架之后)。考虑可理解性和可解释性指的是同一件事。人们只给了不同的名字。

票数 2
EN

Data Science用户

发布于 2020-08-26 03:39:18

可解释机器学习是人工智能的研究领域。它由可解释的模型组成。可以说,两者的区别在于,一个是工具,另一个是研究领域。

简单地说,可解释机器学习是用来解决可解释机器学习领域中存在的问题的工具。

要定义你的答案:一个人应该使用一个可解释的模型来帮助“解释”模型,并解释为什么模型会给出具体的结果。

详细说明:假设你需要cnn来分类图片中是否有狗。cnn的架构将是机器学习问题的一个可解释的方面。而显示cnn输出和焦点的最终显着性图或热图将是其可解释的部分。

票数 2
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/70164

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档