前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >可解释机器学习中无基本事实的解释评价

可解释机器学习中无基本事实的解释评价

原创
作者头像
Jarvis Cocker
发布2019-07-18 17:40:18
6050
发布2019-07-18 17:40:18
举报
文章被收录于专栏:用户5637037的专栏

原文题目:Evaluating Explanation Without Ground Truth in Interpretable Machine Learning

摘要:可解释机器学习(IML)在许多应用中变得越来越重要,例如自动驾驶汽车和医疗诊断。在这些应用中,人们更倾向于用解释来帮助人们更好地理解机器学习系统是如何工作的,并进一步增强人们对系统的信任。尤其是在机器人技术中,IML的解释非常有助于为那些不利和难以理解的行为提供理由,这可能会损害公众的安全和利益。然而,由于解释场景的多样性和解释的主观性,在IML中对生成的解释的质量进行基准评价的依据很少。具有一定的解释质量不仅关系到系统边界的量化,而且有助于实现在实际应用中对人类用户的真正好处。针对IML中的基准评价,本文严格定义了评价解释的问题,并对已有的研究成果进行了系统的回顾。具体来说,我们用正式的定义概括了解释的三个一般方面(即可预见性、忠实性和说服力),并分别回顾了在不同任务下各自具有代表性的方法。此外,根据开发人员和最终用户的层次需求,设计了一个统一的评估框架,在实际应用中可以很容易地适用于不同的场景。最后,对现有评价技术存在的问题进行了探讨,指出了现有评价技术存在的一些局限性,为今后的探索提供了参考。

原文地址:https://arxiv.org/abs/1907.06831

作者:Fan Yang, Mengnan Du, Xia Hu

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档