首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

2019年想晋级AI达人,这两个概念至关重要!

全文共1942字,预计学习时长4分钟

英国一家知名媒体将“技术后冲”(techlash)选为了2018年度关键词。“技术后冲”是指公众对科技巨头与日俱增的敌意,这种现象2018年以来在全球蔓延,根本性地改变着科技巨头所处的舆论环境。滥用信息收集、信息推送的担忧正一步步变为现实,这也引发了民众对科技巨头的信任危机,以及对科技潮的抵制。

虽然许多导致“技术后冲”的事件都是由复杂的企业利益和缺乏治理或问责制引起的,但不可否认,数据科学和机器学习工程的实践和这一年中一些最重要的商业和政治事件紧密相关。

正是在这种背景下,可解释性和可理解性这两个概念的理解变得愈加紧迫。随着讨论人工智能伦理问题的继续,这可能在2019年变得更加重要。

但什么是可解释性和可理解性?对于我们这些进行数据挖掘,分析和科学研究的人来说,2019年实际上又意味着什么呢?

机器学习的可解释性和可理解性之间的区别

在机器学习和人工智能中,可理解性和可解释性通常可互换使用。虽然它们密切相关,但区分它们的差异是很有必要的,一旦深入研究机器学习系统,就会看到事情能有多复杂。

可理解性是指在系统内可以观察到的因果的程度。或者换句话说,输入或算法参数发生变化后对将要发生的事情的预测程度。也就是当看到一个算法时,你的反应会是:嗯!我知道这个算法是在做什么。

可解释性是机器或深度学习系统的内部机制可以用人类语言解释的程度。我们很容易忽略它与可理解性的细微差别,但你可以这样想:可理解性是指能够在不知道为什么的情况下了解这个技术,可解释性是能够很好地在字面上解释正在发生的什么。

你可以换个方式想:假如你在学校做科学实验,实验或许是可以理解的,因为你可以看到你在做什么,但只有你深入了解实验的化学机理,它才可以被解释。

这样说可能有点粗略,但可以帮助你初步理解这两个概念之间的关联。

为什么可理解性和可解释性在人工智能和机器学习中如此重要?

如果说2018年的科技抵制潮教了我们什么东西,那就是虽然技术已经可以完全用于一些不太成熟的地方,但在很多方面,它都产生了不好的、歧视性的结果。

像医疗保健这样的领域,如果想要部署人工智能和深度学习系统,其中问责制和透明度问题尤为重要,如果在算法中没有改进的可理解性和最终的可解释性,将会严重限制人工智能的潜在作用。

但除了需要考虑法律和专业问题之外,还有一种观点认为,即使在较简单的商业场景中,提高可理解性和可解释性也很重要。了解算法实际如何工作有助于更好地使数据科学家和分析师的活动与组织的关键问题和需求保持一致。

用于提高机器学习可理解性的技术和方法

虽然透明度和伦理问题可能对数据科学家来说很抽象,但事实上,有许多实际的东西都可以用来提高算法的可理解性和可解释性。

算法泛化

首先是提高算法的泛化性。这听起来很简单,但并不容易。当你认为大多数机器学习工程只是以特定的方式应用算法来揭示某个期望的结果时,模型本身变成了次要元素——它只是达到目的的手段。但是,如果改变这种态度而通过考虑算法的整体运行状况以及算法运行的数据,那么你就可以开始为提高可解释性奠定坚实的基础。

注意特征的重要性

这个问题显而易见但却很容易忽略。仔细研究算法中各种功能的设置方式,在处理各类问题中很实用,比如从业务调整问题到伦理问题。我们要有这种潜在意识——即对于不同特征都要有不同的设置方式,这是向可理解性和可解释性迈进的重要一步。

LIME:本地可解释的模型—不可知解释

LIME是研究人员开发的一种实际方法,可以让算法中发生的事情更加透明化。研究人员说,LIME可以解释为“通过在预测范围内学习一个可理解的模型,以可理解和正确的方式实现对任何分类器的预测”。

这在实践中意味着LIME模型可以通过测试来开发模型的近似值,以查看当模型中的某些方面出现变化时会发生什么状况。实质上,它是尝试通过实验对相同输入重新创建输出。

DeepLIFT(深度学习重要特点)

DeepLIFT是针对深度学习中比较棘手的领域而研发的有效模型。它通过一种反向传播的方式工作:接受输出,然后试图通过“读取”能改善原始输出的各种神经元来不断改进原始输出。

从本质上讲,它是一种可以挖掘算法内部特征选择的方法(如名称暗示的一样)。

逐层相关性传播

逐层相关传播类似于DeepLIFT,因为它从输出反向工作,识别神经网络中最相关的神经元,直到返回到输入(比如一张图像)。

通过增加复杂性来应对复杂性:它能否提高透明度?

可解释性和可理解性的核心问题是,需要你在开发过程中增加一个额外的步骤。实际上,你可能会添加多个步骤。从某个角度来看,这似乎是想通过更多的复杂性来解决复杂性。

某种程度上来说,这是事实。这在实践中意味着如果我们要严肃地看待可解释性和可理解性的问题,那么在数据科学和工程的完成方式以及人们如何去相信这种完成方式上,还需要进行更广泛的文化变革。这可能是真正有挑战性的部分。

留言 点赞 发个朋友圈

我们一起分享AI学习与发展的干货

编译组:张琪琦、胡婷

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190107B0II5U00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券