前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >可解释性的重要性2.1

可解释性的重要性2.1

作者头像
水球喵子
发布于 2019-05-10 02:02:00
发布于 2019-05-10 02:02:00
1.1K0
举报
文章被收录于专栏:计算机视觉计算机视觉

2.1可解释性的重要性

可解释重要性 原文

如果一个机器学习的模型表现良好,我们为什么不能直接相信这个模型,并且忽略为什么它做了这样的决策?。原因是,仅靠一个指标(loss),例如分类准确性,是一个对现实世界中大多数任务的不完整描述。(Doshi-Velez and Kim 2017 5),所以我们想要知道为什么这个模型做了某个决策。

我们深入探讨解释性重要的原因是,当提到一个预测模型,你必须做出一个权衡:你仅仅是想知道预测的是什么吗?(例如,客户流失的可能性或某些药物对患者的有效性),还是你想知道模型为什么做了这个预测,为什么预测性能下降(性能下降的可解释)?在某些情况下,您不关心为何做出决策,只需知道测试数据集的预测性能良好即可。但在其他情况下,了解“为什么”可以帮助您更多地了解问题,数据无效或者模型失败的原因。某些模型可能不需要解释,因为它们用于低风险环境,意味着错误不会产生严重后果(例如电影推荐系统),或者该方法已经被广泛研究和评估(例如光学字符识别)。对可解释性的需求源于问题定义的不完整性(Doshi-Velez和Kim 2017),这意味着对于某些问题或任务来说,获得预测是不够的(什么)。该模型还必须解释它是如何进行预测的(为什么),因为正确的预测只能部分地解决您的原始问题。以下原因推动了对可解释性和解释的需求(Doshi-Velez和Kim 2017以及Miller 2017)。

人类的好奇心和学习:人类有一个他们对环境的感知模型,当意外发生时会更新。通过会对意外的发生找到一个合理的解释来进行更新行为。例如,一个人意外生病,他会想:“为什么我生病了?”。当他得知每次吃红莓都会生病。然后他就会更新了他的感知模型,并认定红莓引起疾病,因此应该避免。当不透明机器学习模型用于研究时,如果模型仅给出没有解释的决策,那么科学发现仍然是黑匣子。为了促进学习和满足好奇心,为什么机器做了某些预测或行为,可解释性和解释是至关重要的。当然,人类不需要解释所发生的一切。对于大多数人来说,他们不了解计算机的工作原理是可以的。但是,意外会让我们产生好奇。例如:为什么我的电脑意外关机?(手动滑稽,谁来帮我解释下,为什么我的电脑关机了)

与学习密切相关的是人类寻求世界意义的诉求。我们想要协调我们的知 识结构要素之间的矛盾或不一致。“为什么我的狗咬我,即使它之前从未这样做过?”人可能会问。在对狗的过去行为的认知下和现在被咬的知识下之间存在矛盾。兽医的解释调和了狗主人的矛盾:“狗在压力和痛苦之下”。机器决定对人的生命影响越大,机器解释其行为就越重要。如果机器学习模型拒绝贷款申请,申请人可能完全出乎意料。他们只能通过某种解释来调和期望与现实之间的这种不一致。这个解释没有必要完全解释所发生的所有情况,但是应该解释一个主要原因。另一个例子是算法产品推荐。就个人而言,我总是想到为什么某些产品或电影会被算法推荐给我。通常很明确:由于我最近买了一台洗衣机,而且我知道在接下来的几天里我会收到很多洗衣机的广告。如果我的购物车里已经有冬帽,建议买一副手套是行得通的。该算法推荐一部电影,因为喜欢我喜欢的电影的用户也会喜欢我推荐的电影。越来越多的互联网公司正在为他们的建议添加解释。一个很好的例子是亚马逊产品推荐,它基于经常购买的产品组合:

从亚马逊购买水彩颜料的推荐产品。

In many scientific disciplines there is a change from qualitative to quantitative methods (e.g. sociology, psychology), and also towards machine learning (biology, genomics). 科学的目标是获取知识,但是许多问题是由大数据集和黑盒机器学习模型解决的。模型本身成为知识的来源而不是数据。可解释性使得从模型获取额外知识成为可能。

机器学习模型承担了现实世界的任务,他需要一个能够保证安全的举措和测试。想象一下,自动驾驶汽车会根据深度学习系统自动检测骑车人。你想要100%确定系统所学习的是没有错误的,因为压到骑自行车的人是非常糟糕的。一个解释可能发现,学习到最重要的特征是识别自行车的两个轮子,这个解释可以帮助您考虑edge case(感觉应该是特殊情况),如带侧袋的自行车,也就是说车轮被遮挡的情况。

默认情况下,机器学习模型从训练数据中找出bias(偏差)。这能把您的机器学习模型变成种族主义者,他可能会产生歧视。在机器学习模型中,可解释性是找出bias的有用调试工具,能够消除歧视。你训练好的模型可能会发生这样的情况:比如你用来训练的自动批准或拒绝某个人的信用申请的机器学习模型,它会歧视少数人。由于你的主要目标是仅向最终会偿还贷款的人提供贷款,那么,在这种情况下,问题表述的不完整性在于,您不仅要尽量减少贷款违约的情况,但也有义务不要根据某些人口特征产生歧视(可能回因为是某种族,认为其大多是人是无力偿还的)。不产生歧视,是一个额外的约束,它是您的问题定义的一部分(以低风险和符合规定的方式发放贷款),在机器学习模型优化的损失函数并未涵盖这一约束。


将机器和算法集成到我们日常生活中的过程需要可解释性来增加社会接受度。人们将信仰,欲望,意图等赋予某个物体。在着名的实验中,Heider和Simmel(1944)6向参与者展示了一个形状的视频,其中一个圆圈打开了一扇“门”进入一个“房间”(这只是一个矩形)。参与者会想描述一个人的行为一样,去描述这个形状的行为,为形状赋予意图甚至情感和个性特征。机器人就是一个很好的例子,就像我的吸尘器一样,我把它命名为“Doge”。如果Doge卡在一个地方,我会想:“Doge想要继续清洁,但想要我帮忙,因为它被卡住了。”后来,当Doge完成清洁并去找自己的充电口时,我会想:“Doge有充电的愿望并且想要找到充电口。特别是当我发现Doge用吸尘器尽职尽责的打扫屋子时打碎一个花瓶。“我给它赋予了个性特征:”Doge有点愚蠢,但是很可爱。“对机器或算法的行为或结果做解释会更容易被大众接受。另见关于解释的章节,其中认为解释是一个社会过程。

解释用于管理社交互动。通过构建某事物的常识,解释者(Doge)会影响解释接受者(我们)的行为,情感和信念。对于与我们互动的机器,它想要塑造我们的情感和信念。也就是机器必须“说服”我们,以便他们能够达到预期的目标。如果机器没有在某种程度上解释它的行为,我不会完全信任我的Doge。构建一个常识,例如,“意外”事件(如Doge又一次卡在浴室地毯上......),Doge通过解释它仅仅是被卡住而不是在未授权就停止了工作。有趣的是,解释机器的目标(创建信任)和接收者的目标(理解预测或行为)之间可能存在偏差。也许Doge卡住的完整解释可能是电池电量非常低,其中一个车轮工作不正常,有一个由于遮挡导致机器人一遍又一遍地到达同一地点的bug。这些原因(以及其他一些原因)导致机器人卡住,常识只是说明了某些东西挡住了,这足以让我相信它的行为并获得该事故的常识。顺便说一句,Doge再次被困在浴室里。在我们让Doge吸尘之前,我们每次都要移除地毯。但它只是解释了某些东西挡在路上,这足以让我相信它的行为,并获得该事故的常识。

Doge,我们的吸尘器,卡住了。 作为事故的解释,Doge告诉我们它需要在平坦的表面上。

**

Doge本尊

机器学习模型只能在能够解释的情况下可以被调试和监听。即使在低风险环境中,例如电影推荐,解释能力在研发阶段以及部署后也很有价值。之后,当在产品中使用模型时,事情可能会出错。对错误预测的解释有助于理解错误的原因。它为如何修复系统提供了方向。考虑一个哈士奇与狼分类器的例子,将一些哈士奇错误归类为狼。使用可解释的机器学习方法,您会发现错误分类是由于图像上的雪。分类器学会使用雪作为将图像分类为“狼”的特征,这在将狼与哈士奇分离在训练数据集中可能是有意义的,但在实际使用中则不然。

如果您可以确保机器学习模型可以解释决策,您还可以更轻松地检查以下特征(Doshi-Velez和Kim 2017):

  • 公平:确保预测不偏不倚,不会暗中或明确歧视受保护群体。一个可解释的模型可以告诉你为什么它决定某个人不应该获得贷款,并且人们更容易判断该决定是否基于学习的人口统计(例如种族)偏见。
  • 隐私:确保数据中的敏感信息受到保护。
  • 可靠性或稳健性:确保输入中的微小变化不会导致预测发生重大变化。
  • 因果关系: Check that only causal relationships are picked up.。
  • 信任:与黑匣子相比,人类更容易信任能够解释其决策的系统。

当我们不需要可解释性时。

以下场景说明了我们何时不需要甚至不希望机器学习模型的可解释性。

问题得到充分研究时,不需要可解释性。一些应用已得到充分研究,因此对模型有足够的实践经验,并且随着时间的推移已经解决了模型的问题。一个很好的例子是用于光学字符识别的机器学习模型,它处理信封的封面并提取地址。这些系统有多年的经验,很明显它很有效。

可解释性可能使人或程序能够操纵决策系统

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019.04.25 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
可解释的机器学习
想象你是一个数据科学家,你想要在业余时间根据你朋友在facebook和twitter上发布的信息,来预估你朋友假期要去度假的地方。如果你预测对了,你朋友一定叹为观止,觉得你是锦鲤附身。如果你猜错了也没啥,只不过有点影响身为数据科学家的口碑而已。但如果你和其他人打了赌,就赌这个朋友暑假会去哪里,这时候预测错误的成本就有点高了。也就是说,当模型对错本身不造成很大影响的时候,解释性并不算是很重要的要素。不过当预测模型用于金融、公共事务等重大影响决策时,解释性就显得尤为重要了。
AI研习社
2019/07/04
6520
干货 | 可解释的机器学习
想象你是一个数据科学家,你想要在业余时间根据你朋友在facebook和twitter上发布的信息,来预估你朋友假期要去度假的地方。如果你预测对了,你朋友一定叹为观止,觉得你是锦鲤附身。如果你猜错了也没啥,只不过有点影响身为数据科学家的口碑而已。但如果你和其他人打了赌,就赌这个朋友暑假会去哪里,这时候预测错误的成本就有点高了。也就是说,当模型对错本身不造成很大影响的时候,解释性并不算是很重要的要素。不过当预测模型用于金融、公共事务等重大影响决策时,解释性就显得尤为重要了。
AI科技评论
2019/07/05
2.1K0
干货 | 可解释的机器学习
深度学习的可解释性研究(一):让模型「说人话」
AI 研习社按:本文为 BIGSCity 的知乎专栏内容,作者王小贱。北航智慧城市兴趣组 BIGSCITY是隶属于北京航空航天大学计算机学院的一个学术研究小组,小组致力于研究机器学习与数据挖掘在城市科学、社会科学等领域的交叉应用技术。AI 科技评论获得 BIGSCity 授权转载,敬请期待更多后续内容。
AI研习社
2018/07/26
6120
深度学习的可解释性研究(一):让模型「说人话」
神经网络的可解释性综述!
Interpretability (of a DNN) is the ability to provide explanations in understandable terms to a human. F Doshi-Velez & B Kim, 2017
统计学家
2021/07/29
9590
神经网络的可解释性综述!
为什么人工智能需要可解释性?
👆点击“博文视点Broadview”,获取更多书讯 人工智能技术与系统已经开始频繁地出现在人们的工作和生活中,智能财务系统、智能招聘系统和智能推荐系统等不一而足——这些智能系统正在逐步改变社会生活的方方面面,影响甚至决定人的命运。 似乎在我们还没弄明白人工智能到底是怎么一回事的时候,人工智能的实际应用就已经跑得很远了。 然而,我们真的了解人工智能吗?到底什么是人工智能?人工智能的决策机制到底是怎样工作的?它今后将朝着怎样的方向发展? 这些问题都与人工智能系统的可解释性(Explainability)息息
博文视点Broadview
2022/05/27
6780
为什么人工智能需要可解释性?
模型可解释性
随着深度学习和复杂机器学习模型的普及,模型的可解释性(Model Interpretability)成为了一个日益重要的议题。虽然这些“黑箱”模型在很多领域(如计算机视觉、自然语言处理、金融分析等)表现出了惊人的能力,但它们的复杂性和不可解释性也带来了许多挑战。在许多应用场景中,尤其是医疗、金融、法律等领域,了解模型决策背后的原因至关重要。为了提高机器学习模型的透明度,开发者引入了不同的可解释性工具和方法,帮助我们理解这些复杂模型的行为。
LucianaiB
2025/02/02
1610
AI 可解释性模型的重要性
大家好,我是Echo_Wish。今天我们来聊聊一个可能对很多AI爱好者和从业者来说并不陌生,但又常常被忽视的话题——AI 可解释性模型的重要性。
Echo_Wish
2025/03/23
1170
机器学习模型的可解释性
机器学习模型的可解释性是指人类能够理解并理解决策原因的程度,这在业务应用中尤为重要。高可解释性的模型不仅有助于开发人员在建模阶段理解模型,还能在必要时进行优化调整。
用户11315985
2024/10/16
2640
模型|“请解释”黑盒机器学习模型的解释性
2019年2月,波兰政府对银行法进行了修订,赋予客户在做出信贷拒绝时获得解释的权利。这是在欧盟实施GDPR的直接后果之一。这意味着,如果决策过程是自动的,银行需要能够解释为什么不发放贷款。
陆勤_数据人网
2019/05/14
1.3K0
顿新国:可解释人工智能问题
当代人工智能技术在给人类带来多方面福利的同时,面临黑箱、鲁棒性和可解释性等问题,发展值得信赖的可解释人工智能已成为人工智能领域的核心关切。论文在论证可解释人工智能为什么重要的基础上,对可解释人工智能的内涵进行界定,进而提出发展可解释人工智能需遵循的一些原则,它们也可看作可解释人工智能需达致的目标和要求。论文最后提出了两点关于实现可解释人工智能途径的构想。
用户9861443
2023/09/14
2700
顿新国:可解释人工智能问题
机器学习——解释性AI与可解释性机器学习
随着人工智能技术的广泛应用,机器学习模型越来越多地被用于决策过程。然而,这些模型,尤其是深度学习模型,通常被视为“黑箱”,难以理解其背后的决策逻辑。解释性AI(Explainable AI, XAI)和可解释性机器学习(Interpretable Machine Learning, IML)旨在解决这个问题,使模型的决策过程透明、可信。本文将深入探讨解释性AI与可解释性机器学习的概念、方法和代码实现,帮助读者全面理解这一重要主题。
hope kc
2024/10/19
2630
【技术分享】机器学习模型可解释性
模型可解释性方面的研究,在近两年的科研会议上成为关注热点,因为大家不仅仅满足于模型的效果,更对模型效果的原因产生更多的思考,这样的思考有助于模型和特征的优化,更能够帮助更好的理解模型本身和提升模型服务质量。本文对机器学习模型可解释性相关资料汇总survey。
腾讯云TI平台
2019/10/18
3.8K0
算法“黑箱”下AI信任存疑,可解释性AI迎来发展“元年”
AI一路发展至今,对其不信任的言论始终如影随形,究其根源,还是由于人们对AI在决策过程中的不了解引起的。
科技云报道
2022/04/16
6160
算法“黑箱”下AI信任存疑,可解释性AI迎来发展“元年”
难以捉摸?机器学习模型的可解释性初探
有监督的机器学习模型往往具有显著的预测能力,很多学术文献为解释性提供了多样的、有时是稍有矛盾的描述,并提供了很多的技术来呈现可解释的模型。可解释性的定义并不明确,但是,人们还是都宣称他们的模型是可解释,尽管没有进一步的论据。问题在于,我们目前还不清楚这些关于模型可解释性技术的共同特性到底是什么。
半吊子全栈工匠
2021/01/13
5050
难以捉摸?机器学习模型的可解释性初探
当可解释人工智能遇上知识图谱
来源:知乎—机器学习小谈地址:https://zhuanlan.zhihu.com/p/386458680 本文约6100字,建议阅读10分钟 可解释人工智能遇上知识图谱。 在科学研究中,从方法论上来讲,都应“先见森林,再见树木”。当前,人工智能学术研究方兴未艾,技术迅猛发展,可谓万木争荣,日新月异。对于AI从业者来说,在广袤的知识森林中,系统梳理脉络,才能更好地把握趋势。为此,我们精选国内外优秀的综述文章,开辟“综述专栏”,敬请关注。 本文按照以下章节进行组织: 1. 背景意义 2. 基于路径的方法 3.
数据派THU
2023/03/29
1K0
当可解释人工智能遇上知识图谱
可解释性 or 准确性?AI 模型就一定不能两者兼得吗?
一般规律中,模型的复杂度和准确性往往是正相关的关系,而越高的复杂度也意味着模型越可能无法实现可解释性。那 AI 模型的准确性和可解释性就无法并存了吗?
AI科技评论
2020/02/21
1.3K0
可解释性 or 准确性?AI 模型就一定不能两者兼得吗?
知识图谱和可解释性深度学习的发展深度学习问题知识图谱为可解释提供依据利用知识图谱对可解释性应用知识图谱在可解释性上的困难
深度学习的发展 这些年深度学习突飞猛进,各种深度学习模型层出不穷,各种网络结构纷纷登场。 可实际上它发展的本质是由大数据喂出来的,使得机器在图像、语音识别等感知能力方面甚至超越人类。 在深度学习的推动下,自然语言处理方面也取得了显著进展。 深度学习问题 深度学习的一个广为诟病的问题是其不透明性,不可解释性。深度学习模型是一种端到端的学习,接受大样本作为训练输入,所习得的模型本质上是神经网络结构的参数。 其预测过程,是相应参数下的计算过程。 深度学习的学习和预测过程是不透明的,模型究竟学到了什么有效特征,使得
DC童生
2018/10/10
2.2K0
机器学习模型的“可解释性”到底有多重要?
【导读】我们知道,近年来机器学习,特别是深度学习在各个领域取得了骄人的成绩,其受追捧的程度可谓是舍我其谁,但是有很多机器学习模型(深度学习首当其冲)的可解释性不强,这也导致了很多论战,那么模型的可解释
WZEARW
2018/04/13
15K0
机器学习模型的“可解释性”到底有多重要?
原创 | 一文读懂模型的可解释性(附代码&链接)
目前人工智能应用已经渗透到我们生活的方方面面,成为我们生活中重要的一部分。我们相信,随着机器学习技术的不断进步,未来有望产生一个能够感知、学习、做出决策和采取独立行动自主系统。但是,如果这些系统无法向人类解释为何作出这样的决策,那么它们的有效性将会受到限制。用户要理解,信任和管理这些人工智能“合作伙伴”,可解释AI则至关重要。
数据派THU
2020/05/18
10.6K1
原创 | 一文读懂模型的可解释性(附代码&链接)
CCAI 2017 | 刘燕:艺术与人工智能的明天——人机信任合作
南加州大学计算机系名誉副教授、机器学习中心主任刘燕 文/CSDN贾维娣 7 月 22 - 23 日,在中国科学技术协会、中国科学院的指导下,由中国人工智能学会、阿里巴巴集团 & 蚂蚁金服主办,CSDN、中国科学院自动化研究所承办的 2017 中国人工智能大会(CCAI 2017)在杭州国际会议中心盛大召开。 大会第二天下午,南加州大学计算机系名誉副教授、机器学习中心主任刘燕参与了【人工智能科学与艺术】论坛的讨论,并发表了《艺术与人工智能的明天——人机信任合作》主题演讲,刘燕教授认为将来人工智能与艺术的结
AI科技大本营
2018/04/28
7160
CCAI 2017 | 刘燕:艺术与人工智能的明天——人机信任合作
推荐阅读
相关推荐
可解释的机器学习
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文