前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【译】(Introduction部分)Interpretable Machine Learning. A Guide for Making Black Box Models Explainable

【译】(Introduction部分)Interpretable Machine Learning. A Guide for Making Black Box Models Explainable

作者头像
水球喵子
发布2019-03-11 10:37:01
7440
发布2019-03-11 10:37:01
举报
文章被收录于专栏:计算机视觉

Introduction部分

这本书向你解释了怎样让机器学习模型可解释,这章中包含了一些数学公式,但是即使没有这些公式,你也应该能够理解这些方法的思想。这本书并不适合于初学机器学习的同学,如果你是初学者,建议你去看下面这些内容,

书“The Elements of Statistical Learning” by Hastie, Tibshirani, and Friedman (2009) 1

视频 Andrew Ng’s “Machine Learning” online course on the online learning platform coursera.com to start with machine learning.

以上资源都是免费的!

解释机器学习模型的新方法以极快的速度发表。要跟上所有发表的文章是根本不可能。这就是为什么你在这本书中找不到最新颖、最奇特的方法,而是机器学习可解释性的既定方法和基本概念。这些基础知识可以帮助您理解机器学习模型。将基本概念了解明白,可以帮助您更好地理解和评估自您开始阅读本书以来最近5分钟内在arxiv.org上发表的关于可解释性的任何新论文(我可能夸大了发表速度)。

这本书以一些(反乌托邦的)短篇故事开始,这些故事对理解这本书没用,但希望能博你一笑,让你思考。然后,这本书探讨了机器学习的概念,可解释性。我们将讨论什么时候可解释性是重要的,以及有哪些不同类型的解释。贯穿全书的术语可以在1.3 teminology中查阅。大部分的模型和方法都是 3.Dataset章节中描述的真实数据来说明的。使机器学习可解释的一种方法是使用可解释的模型,如线性模型或决策树。另一种选择是使用模型无关的解释工具,这些工具可以应用于任何有监督的机器学习模型。4.Model-Agnostic模型无关方法一章讨论了部分依赖图特征重要性排列等方法。模型无关的方法通过改变机器学习模型的输入,然后观察预测的结果变化来实现模型的可解释性。在6.Example Based Explanations一章中讨论了一些关于可解释性的例子。所有与模型无关的方法都可以根据它们是解释跨所有数据实例的全局模型还是解释单个预测来进一步区分。以下方法解释了模型的整体行为: 局部依赖图, 累积的局部效应, 特征交互, 特征重要性, 全局代理模型 and Prototypes and Criticisms. 为了解释单个预测,我们有 局部代理模型, Shapley值解释, 反事实解释 (以及紧密相关的: (对抗性示例)).一些方法可以用来解释全局模型行为和个体预测的两个方面: 个体条件期望影响实例.

这本书以对可解释机器学习的未来的乐观展望作为结尾。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019.02.26 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Introduction部分
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档