前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >【译】(Introduction部分)Interpretable Machine Learning. A Guide for Making Black Box Models Explainable

【译】(Introduction部分)Interpretable Machine Learning. A Guide for Making Black Box Models Explainable

作者头像
水球喵子
发布于 2019-03-11 02:37:01
发布于 2019-03-11 02:37:01
7820
举报
文章被收录于专栏:计算机视觉计算机视觉

Introduction部分

这本书向你解释了怎样让机器学习模型可解释,这章中包含了一些数学公式,但是即使没有这些公式,你也应该能够理解这些方法的思想。这本书并不适合于初学机器学习的同学,如果你是初学者,建议你去看下面这些内容,

书“The Elements of Statistical Learning” by Hastie, Tibshirani, and Friedman (2009) 1

视频 Andrew Ng’s “Machine Learning” online course on the online learning platform coursera.com to start with machine learning.

以上资源都是免费的!

解释机器学习模型的新方法以极快的速度发表。要跟上所有发表的文章是根本不可能。这就是为什么你在这本书中找不到最新颖、最奇特的方法,而是机器学习可解释性的既定方法和基本概念。这些基础知识可以帮助您理解机器学习模型。将基本概念了解明白,可以帮助您更好地理解和评估自您开始阅读本书以来最近5分钟内在arxiv.org上发表的关于可解释性的任何新论文(我可能夸大了发表速度)。

这本书以一些(反乌托邦的)短篇故事开始,这些故事对理解这本书没用,但希望能博你一笑,让你思考。然后,这本书探讨了机器学习的概念,可解释性。我们将讨论什么时候可解释性是重要的,以及有哪些不同类型的解释。贯穿全书的术语可以在1.3 teminology中查阅。大部分的模型和方法都是 3.Dataset章节中描述的真实数据来说明的。使机器学习可解释的一种方法是使用可解释的模型,如线性模型或决策树。另一种选择是使用模型无关的解释工具,这些工具可以应用于任何有监督的机器学习模型。4.Model-Agnostic模型无关方法一章讨论了部分依赖图特征重要性排列等方法。模型无关的方法通过改变机器学习模型的输入,然后观察预测的结果变化来实现模型的可解释性。在6.Example Based Explanations一章中讨论了一些关于可解释性的例子。所有与模型无关的方法都可以根据它们是解释跨所有数据实例的全局模型还是解释单个预测来进一步区分。以下方法解释了模型的整体行为: 局部依赖图, 累积的局部效应, 特征交互, 特征重要性, 全局代理模型 and Prototypes and Criticisms. 为了解释单个预测,我们有 局部代理模型, Shapley值解释, 反事实解释 (以及紧密相关的: (对抗性示例)).一些方法可以用来解释全局模型行为和个体预测的两个方面: 个体条件期望影响实例.

这本书以对可解释机器学习的未来的乐观展望作为结尾。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019.02.26 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
唯一《可解释机器学习》中文书来了:复旦研究生翻译,原作者转发点赞
但是AI一直黑箱问题存在,如果AI对过程都不能做到可解释,又怎么能放心让它来诊断病患呢。而关于机器学习可解释问题的书籍少之又少。
量子位
2020/05/19
3280
唯一《可解释机器学习》中文书来了:复旦研究生翻译,原作者转发点赞
【2023新书】机器学习集成方法
来源:专知本文为书籍介绍,建议阅读5分钟现在是学习集成方法的最佳时机。本书介绍的模型主要分为三类。 现在是学习集成方法的最佳时机。本书介绍的模型主要分为三类。 https://www.manning.com/books/ensemble-methods-for-machine-learning 基础集成方法——每个人都听说过的经典方法,包括历史集成技术,如bagging、随机森林和AdaBoost 最先进的集成方法——现代集成时代经过试验和测试的强大工具,它们构成了许多现实世界中生产中的预测、推荐和搜索系
数据派THU
2023/04/18
3470
【2023新书】机器学习集成方法
一文读懂可解释机器学习简史,让你的模型再也不是「Black Box」
当机器学习模型用在产品、决策或者研究过程中的时候,「可解释性」通常是一个决定因素。
新智元
2020/10/29
9820
【译】Interpretable Machine Learning. A Guide for Making Black Box Models Explainable
机器学习在改进产品、过程和研究方面具有巨大的潜力。机器学习模型可以做出很好的预测,但是计算机通常不能解释预测,这是我们使用机器学习时的一个障碍。这是关于使机器学习模型和模型的决策可解释的一本书。
水球喵子
2019/03/11
1.1K0
【译】Interpretable Machine Learning. A Guide for Making Black Box Models Explainable
可解释人工智能: 构建可解释机器学习系统,330页pdf
https://www.manning.com/books/interpretable-ai
数据STUDIO
2023/09/04
3890
可解释人工智能: 构建可解释机器学习系统,330页pdf
《可解释机器学习》中文版重磅开源!这位复旦小哥太给力了
我曾经介绍过一本不错的书籍:《A Gudie for Making Black Box Models Explainable》,中文译为《可解释机器学习》。这本书是关于使机器学习模型和他们的决定变得可解释。
石晓文
2020/05/12
7240
现代机器学习中的模型可解释性概述
模型可解释性是当今机器学习中最重要的问题之一。通常某些“黑匣子”模型(例如深度神经网络)已部署到生产中,并且正在运行从工作场所安全摄像头到智能手机的所有关键系统。令人恐惧的是,甚至这些算法的开发人员都无法理解为什么正是这些算法真正做出了自己的决定,甚至更糟的是,如何防止对手利用它们。
代码医生工作室
2019/12/10
2.3K0
现代机器学习中的模型可解释性概述
谈谈机器学习模型的可解释性
随着AI和机器学习的发展,越来越多的决策会交给自动化的机器学习算法来做。但是当我们把一些非常重要的决定交给机器的时候,我们真的放心么?当波音飞机忽略驾驶员的指令,决定义无反顾的冲向大地;当银行系统莫名其妙否决你的贷款申请的时候;当自动化敌我识别武器系统决定向无辜平民开火的时候;人类的内心应该是一万个草泥马飞过,大声的质问,“为什么?”
数据猿
2019/11/20
1.2K0
谈谈机器学习模型的可解释性
模型可解释性
随着深度学习和复杂机器学习模型的普及,模型的可解释性(Model Interpretability)成为了一个日益重要的议题。虽然这些“黑箱”模型在很多领域(如计算机视觉、自然语言处理、金融分析等)表现出了惊人的能力,但它们的复杂性和不可解释性也带来了许多挑战。在许多应用场景中,尤其是医疗、金融、法律等领域,了解模型决策背后的原因至关重要。为了提高机器学习模型的透明度,开发者引入了不同的可解释性工具和方法,帮助我们理解这些复杂模型的行为。
LucianaiB
2025/02/02
1640
【源头活水】顶刊解读!Nature子刊 Machine Intelligence(IF 23.8)2024年第6卷第5期(1)
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注!
马上科普尚尚
2024/06/18
2890
【源头活水】顶刊解读!Nature子刊 Machine Intelligence(IF 23.8)2024年第6卷第5期(1)
6个机器学习可解释性框架!
来源:DeepHub IMBA本文约1700字,建议阅读5分钟在本文中,将介绍6个用于机器学习可解释性的Python框架。 随着人工智能的发展为了解决具有挑战性的问题,人们创造了更复杂、更不透明的
数据派THU
2022/10/09
6200
6个机器学习可解释性框架!
模型的可解释性:部分依赖图PDP和个体条件期望图ICE
部分依赖图 (PDP) 和个体条件期望 (ICE) 图可用于可视化和分析训练目标与一组输入特征之间的交互关系。
deephub
2022/04/14
1.3K0
模型的可解释性:部分依赖图PDP和个体条件期望图ICE
Example-based Machine Learning是什么?
Example-based Machine Learning (EML) 是从数据集中选择特殊的样本来进行学习。下面看几个例子来理解:
marsggbo
2019/10/06
5420
AI模型的公平性与透明性
人工智能(AI)在多个领域取得了显著的进展,但伴随着这些成就而来的,是对其社会影响和伦理问题的深刻关注。特别是在涉及决策支持系统(如招聘、金融、医疗和司法等领域)时,AI模型的公平性与透明性成为了不可忽视的议题。一个重要的问题是算法偏见(Algorithmic Bias),它可能导致AI模型在某些群体之间产生不平等的结果,从而加剧社会不公。
LucianaiB
2025/02/08
1401
每个程序员都应该知道的 40 个算法(四)
大规模算法旨在解决庞大的复杂问题。大规模算法的特征是由于其数据规模和处理要求的缘故,需要多个执行引擎。本章首先讨论了什么类型的算法最适合并行运行。然后,讨论了与并行化算法相关的问题。接下来,介绍了计算统一设备架构(CUDA)架构,并讨论了如何使用单个图形处理单元(GPU)或一组 GPU 来加速算法。还讨论了需要对算法进行哪些更改才能有效利用 GPU 的性能。最后,本章讨论了集群计算,并讨论了 Apache Spark 如何创建弹性分布式数据集(RDDs)以创建标准算法的极快并行实现。
ApacheCN_飞龙
2024/05/24
1170
每个程序员都应该知道的 40 个算法(四)
高赞新书《可解释的机器学习》出版:理解黑盒必备,免费资源
最近,这本名为《可解释性的机器学习》书在推特火了起来,两天内2千多人点赞,将近700人转发。
量子位
2019/04/23
6880
高赞新书《可解释的机器学习》出版:理解黑盒必备,免费资源
Francis Bach新书稿:第一性原理学习理论 | 附PDF下载
同为评价事物的依据,第一性原理和经验参数代表两个极端。经验参数是通过大量实例得出的规律性的数据,而第一性原理是某些硬性规定或推演得出的结论。
AI科技评论
2021/07/03
1.8K0
Francis Bach新书稿:第一性原理学习理论 | 附PDF下载
Nat. Mach. Intell. | 评估基于shapely值的特征归因算法
今天为大家介绍的是来自Su-In Lee研究团队的一篇关于shapely value特征归因的论文。基于Shapley值的特征归因在解释机器学习模型方面非常流行。然而,从理论和计算的角度来看,它们的估计是复杂的。作者将这种复杂性分解为两个主要因素:去除特征信息的方法和可行的估计策略。这两个因素提供了一个自然的视角使得我们可以更好地理解和比较24种不同的算法。
DrugAI
2023/09/19
6630
Nat. Mach. Intell. | 评估基于shapely值的特征归因算法
AAAI/CVPR论文详解 | 万字长文了解可解释AI工具及技术的最新进展
机器之心分析师网络 作者:仵冀颖 编辑:H4O 本文聚焦于研究和开发可解释性工具的内容,对AAAI-2022《Tutorial on Explanations in Interactive Machine Learning》提及的三类可解释性工具/方法(局部可解释性、规则可解释性、概念可解释性)进行了解读,重点了解可解释性工具和方法的最新研究进展。 1 背景 近年来,学术界、工业界以及政府部门对 AI 伦理的重视程度日益加强,从 AI 伦理监管政策到 AI 伦理技术手段,提升 AI 伦理合规性和打造 AI
机器之心
2022/09/14
3900
AAAI/CVPR论文详解 | 万字长文了解可解释AI工具及技术的最新进展
睡前读书 | 机器学习基础(Foundations of Machine Learning)该怎么读
最近都在读《机器学习基础》,觉得挺不错。书是由三个分别来自谷歌研究院、纽约大学、卡耐基梅隆大学的人写的,一听就感觉阵容强大。不仅如此,第一作者是莫里(Mohri)教授,两个字评价,泰斗。另外两位作者也不是别人,正是莫里教授的高徒。这本书也不是即兴之作,是由莫里教授长期开设的机器学习研究生课程的讲义整理而来,所以理所当然,这本书推荐的人很多。
木羊
2022/04/11
1.4K0
睡前读书 | 机器学习基础(Foundations of Machine Learning)该怎么读
推荐阅读
相关推荐
唯一《可解释机器学习》中文书来了:复旦研究生翻译,原作者转发点赞
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文