前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【译】Interpretable Machine Learning. A Guide for Making Black Box Models Explainable

【译】Interpretable Machine Learning. A Guide for Making Black Box Models Explainable

作者头像
水球喵子
发布2019-03-11 10:36:10
9630
发布2019-03-11 10:36:10
举报
文章被收录于专栏:计算机视觉计算机视觉

可解释机器学习 原文

让黑匣子模型可以解释的指南

【前言】

可解释机器学习

机器学习在改进产品、过程和研究方面具有巨大的潜力。机器学习模型可以做出很好的预测,但是计算机通常不能解释预测,这是我们使用机器学习时的一个障碍。这是关于使机器学习模型和模型的决策可解释的一本书。

在探索了可解释性这个概念后,你将会学习到关于简单的、可解释模型比如:决策树,决策规则和线性回归。之后的章节里关注于一般的模型无关的方法来解释黑盒模型,比如特征重要性【例如:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks,数据内部表示中的一部分表示相比其他表示更加transferrable,即这些表示在其他任务分布p(T)中都具有广泛的适用性,而非只在一个任务中有效。】、累积的局部效应,以及用Shapley值和LIME解释单个预测。

所有的可解释方法都做了深度解释和判别性讨论。他们如何在黑盒里运作的?他们的优点缺点是什么?如何让他们的输出可解释?这本书将能够帮助您选择和正确应用最适合你自己的机器学习项目的可解释性的方法。

本书侧重于表格数据(也称为关系数据或结构化数据)的机器学习模型,较少涉及计算机视觉和自然语言处理任务。本书推荐给机器学习实践者、数据科学家、统计学家以及任何对机器学习模型可解释感兴趣的人阅读。

You can buy the PDF and e-book version (epub, mobi) on leanpub.com.

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019.02.26 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 可解释机器学习 原文
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档