原文题目:Evaluating Explanation Without Ground Truth in Interpretable Machine Learning
摘要:可解释机器学习(IML)在许多应用中变得越来越重要,例如自动驾驶汽车和医疗诊断。在这些应用中,人们更倾向于用解释来帮助人们更好地理解机器学习系统是如何工作的,并进一步增强人们对系统的信任。尤其是在机器人技术中,IML的解释非常有助于为那些不利和难以理解的行为提供理由,这可能会损害公众的安全和利益。然而,由于解释场景的多样性和解释的主观性,在IML中对生成的解释的质量进行基准评价的依据很少。具有一定的解释质量不仅关系到系统边界的量化,而且有助于实现在实际应用中对人类用户的真正好处。针对IML中的基准评价,本文严格定义了评价解释的问题,并对已有的研究成果进行了系统的回顾。具体来说,我们用正式的定义概括了解释的三个一般方面(即可预见性、忠实性和说服力),并分别回顾了在不同任务下各自具有代表性的方法。此外,根据开发人员和最终用户的层次需求,设计了一个统一的评估框架,在实际应用中可以很容易地适用于不同的场景。最后,对现有评价技术存在的问题进行了探讨,指出了现有评价技术存在的一些局限性,为今后的探索提供了参考。
原文地址:https://arxiv.org/abs/1907.06831
作者:Fan Yang, Mengnan Du, Xia Hu
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。