首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI到底是能力First还是可解释性First?

今天,你AI了没?

关注:决策智能与机器学习,每天学点AI干货

正文共:3139 字 7 图

预计阅读时间: 8 分钟

随着深度学习等技术诞生,人工智能行业又一次蓬勃发展。李开复在题为《人工智能的黄金时代》的万字演讲中提到,深度学习有四点挑战,分别是平台化、数据、计算及可解释性。人工智能的黄金时代已经到来,深度学习已经在图像,语音,大数据,自动驾驶等诸多领域占绝对优势。相较而言,模型可解释性的研究还处于起步阶段。特别是,随着波音MCAS系统导致的空难频繁,人们对于技术的信赖感也会急速降低,特别是涉及到安全、操作、控制方面的技术应用。人工智能目前的黑盒化并不能让人信服得出的结论,充满了疑问和焦虑。

虽然深度神经网络(Deep Neural Network,DNN)作为当前人工智能应用的首选模型,在图像识别,语音识别,自然语言处理,计算生物,金融大数据等领域成效显著。但深度神经网络又被称为“黑盒”模型,多层隐藏结构,数据 / 特征矢量化,海量决策关键元等因素让模型使用者犯难:模型决策的依据是什么?应该相信模型么?特别是对于金融,医药,生物等关键型任务,深度学习模型的弱解释性成为人工智能项目落地的最大障碍。

在微软全球资深副总裁、微软亚洲研究院院长洪小文看来,如今的人工智能无法进行归纳和理解,只知道根据输入导出结果。接受《21世纪经济报道》采访时,洪小文说,目前,人工智能对语音的反馈包括三个阶段:识别、理解和提供服务。当下人工智能的主要难点在于“理解”,因为需要人工智能去理解的内容本身拥有无穷的组合,没有精确的模型,于是就无法用建模的模式去解决。不过,黑盒也有自己的好处。洪小文介绍,从某个角度来说,黑盒不会存在偏差,是什么就是什么,非常公平。一些推理过程中需要白盒的系统,但这种推理存在着某种既定立场,比如人们对有争议的问题多少会有一些偏见,这些偏见来自于每个人的既定立场。在这些立场下推理出的东西必然会有所偏颇,但黑盒就不会,怎样输入就怎样输出。

洪小文认为,当前的合理状态应该是人工智能+人类智能(AI+HI),AI致力于流程性分析,人类负责深度分析、理解和创造。 “今天,无论是语音识别、文本翻译、或是计算机视觉等技术所支撑的人工智能,都没有真正理解信息的含义。它们只是在匹配预设的模型。”他认为,今天的AI只是一个黑盒,也就是说,人工智能无法归纳和理解,只知道根据输入导出结果,但“理解”这件事本身是一个白盒,也就是人类拥有的能力:不仅理解了接受的信息,还可以对本身不了解的信息进行猜测,部分理解其含义。这点对于今天的AI来说非常难,需要更新的技术才能解决。

人工智能识别出的结果不是凭空而来,是大量训练的结果。如果要训练AI某一方面的能力,比如下棋,就需要收集、清洗、标记大量数据供机器学习。如果用于训练的数据不够多,就会造成AI学习的不充分,导致其识别结果的失误。”中科院自动化研究所研究员王金桥对科技日报记者表示。数据本身的分布特性,如偏差甚至偏见,也会被机器“有样学样”。“当人们谈论人工智能算法存在偏差和不公平时,罪魁祸首往往不是算法本身,而是带有偏差、偏见的数据。因为当前的深度学习方法依赖大量的训练样本,网络识别的特性是由样本本身的特性所决定。尽管在训练模型时使用同样的方法,但使用了错误或正确的数据集,就会在图像中看到非常不一样的东西”。

另外是算法本身的影响。“这可能是无法完全避免的,由深度学习算法本身的缺陷决定,它存在内在对抗性。”王金桥表示,目前最流行的神经网络不同于人脑的生物计算,模型由数据驱动,和人类的认知不具有一致性。基于深度学习的框架,必须通过当前训练数据拟合到目标函数。在这个框架之下,如果机器要识别狗,它会通过狗的眼睛、鼻子、耳朵等局部特征进行可视化识别,而这些可视化特征却能给想利用深度学习漏洞的人机会,后者可以通过伪造数据来欺骗机器。

除了人训练机器的数据本身有偏差以外,机器通过对抗性神经网络合成的数据也可能有问题。由于机器不可能“见过”所有东西(比如识别桌子,机器不可能学习所有长短宽窄各异的桌子),人也不可能标记所有数据。如果研究者输入一个随机的噪音,机器可以向任何方向学习。这是一把双刃剑,机器也可能合成一些有问题的数据,学习时间长了,机器就“跑偏”了。

张钹院士认为,研究AlphaGo不是为了编制一个围棋程序来代替人类棋手,来颠覆围棋运动,而是以“围棋”为平台,研究人工智能解决这类问题的方法以及可能达到的水平。因此研制AlphaGo的成功只是证明,人工智能在解决以下类型问题时,不管问题多么复杂,都可能做到甚至超过人类的水平。

这类问题的特点是:(1)有充足的数据(或知识),(2)完全信息,(3)确定性,(4)单领域。这类问题除围棋之外,还包括语音识别、人脸识别和图像识别等,其中有一些问题(如围棋)对人类来讲虽然很困难,但对于高速的计算机却是比较容易的。不过,当一个问题不满足上述4个条件中的任何一个(或几个)时,对计算机来讲就变成十分困难的了,而这些问题对于人类来讲反而相对比较容易。比如打桥牌(不完全信息博弈),无人车(不确定性,不完全信息和多领域),自然语言理解(多领域)等。在这些问题上,计算机则比人类差距很大。这就告诉我们机器智能与人类智能之间通常不是互相排斥和互相替代,而是互补的。

解决围棋只是人工智能往前迈进了一步,许多更困难的问题等待人工智能去解决。当前以大数据与深度学习为基础的人工智能存在的最大问题是:不可解释和不可理解,就事论事,缺乏推广能力,遇到新的情况一筹莫展。因此当面对动态变化的环境,信息不完全,存在干扰与虚假信息时,人工智能系统的性能就会显著下降。此外,这样的人工智能系统由于不可理解,无法实现人机交互,无法与人类协同工作与和谐相处。解决这些问题的困难很大,人工智能发展的道路还很长,机器智能达到适应动态变化环境的能力还很遥远。

一支由多国研究人员组成的科研团队近期开始向人工智能传授自我判断和解释的能力,并指出做出这个决定的依据和理由。“黑盒”正变得透明,这对于人工智能领域来说无疑是重大事件。 在人工智能领域搞清楚神经网络为何做出这些决定是众多科研专家攻克的方向,黑盒问题本质上就是我们真的信任人工智能系统。该团队来自伯克利大学、阿姆斯特丹大学、MPI for Informatics以及Facebook的人工智能研究部门,他们的研究建立在此前的工作基础上,只不过这次他们向人工智能传授了新的技巧。

所谓“黑盒子”,是指从用户的观点来看一个器件或产品时,并不关心其内部构造和原理,而只关心它的功能及如何使用这些功能。但从研究者的角度讲,搞清楚内部构造和原理是必须的。

同人类相同,他能够“指出”回答某个问题所需要的依据,并通过文本描述的方式来阐述是如何理解这个依据的。团队所提出的问题基本上是人类9岁的智力水平能够回答的问题。

根据团队近期公布的白皮书,这是首次人造系统能够以两种不同方式来进行自我解释。在论文中写道:“我们的模型首次具备提供决定的自然语言判断以及在图片中指出依据的能力。”

科研专家开发的人工智能能够回答关于图像的某些常规问题,在给定的情境中能够回答关于图像主体和动作的相关问题。并且该人工智能能够通过描述所看到的内容并且高亮图片中的某些部分来给出依据回答。

若您觉得不错,请分享到朋友圈或微信群,下方拇指处点“在看”让我们知道!

微信群&交流合作

伙伴招募:寻找真正对AI技术感兴趣的伙伴,共同维护公众号,一起组织各种技术交流活动,请留言与我们联系。

行业沙龙群:加入沙龙群,拓展行业人脉,对接需求,请在公众号留言:“微信号+名字+研究领域/专业/学校/公司”,我们将很快与您联系。

各种合作:请留言联系。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190319A02JK900?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券