学界 | AI 黑箱难题怎么破?基于神经网络模型的算法使机器学习透明化

编者按:人们可以训练人工智能 (AI)和机器人完成任务,但整个过程在黑箱中运作。我们并不知道 AI 和机器人是如何决策的。一家名为 OptimizingMind 的初创公司想要解决这个问题。这篇文章将讲述该公司对建立透明 AI 决策过程的愿景和大胆尝试。本文发表于 TechRepublic,作者 Hope Reese,原标题《 Transparent machine learning: How to create 'clear-box' AI》。由雷锋网(公众号:雷锋网)编译,未经许可,不得转载。

AI 领域的下一个大事件并不是教会 AI 完成某项任务,而是让机器向人们解释为什么它们做出了某项决策。比方说,一个机器人决定走一条特定路线去仓库,又比如,一辆无人驾驶汽车决定向左或向右转。我们怎么知道 AI 为什么做出这些决定?

卡内基梅隆大学计算机科学教授 Manuela Veloso 是研究协作机器人的专家。他表示,能解释自身行为的 AI 对赢得大众对人工智能的信任至关重要。“我们需要质疑为什么算法程序会做出这样那样的决定,如果我们不在 AI 动机解释上花功夫,就无法信任这个智能系统。”

为解决该问题, 创业公司 OptimizingMind 发明了一项能观察智能机器决策过程的技术。

这个算法的目的是创造 “透明访问”系统,以呈现机器学习是如何做出预期(expectations)的。OptimizingMind 的负责人 Tsvi Achler 说:

“该系统以人脑的神经模型为基础,能把任何深度网络 (deep networks)转化为该系统的模式。它的目的是探索 AI 行为的潜在预期 (underlying expectations),并且找出 AI 思维模式的哪个方面对决策影响最大”。

有着神经科学、医药和计算机科学多重学科背景的 Achler 认为,我们能从人脑如何作出和解释决策中学习到很多(应用到 AI 的知识)。

“我感兴趣的是,大脑和计算机的共同点在哪里?为什么人脑可以在学会任何模型之后把它解释出来。如果我说 ‘章鱼’,你是否能告诉我那是什么?如果我问章鱼触手长什么样,你能告诉我吗?”

人能做到,AI 为什么不行?

他说,当人类观察到一个新模式(或规律)的时候,会立刻学会那个模式。这对 AI 暂时还不可能。 AI 的学习方法被称为批量学习。如果你想要对 AI 加入一个新模式或者新注解,你必须从头开始把所有的新旧模式重新教一遍。

Achler 开发的算法呈现出神经科学里的 “爆裂” 现象。当人观察到一个新模式时,多个神经元被同时激发,然后它们沉寂下来。当你向某人展示一个模式的时候,下一瞬间会发生神经兴奋,之后逐渐地平静下来。在这个算法里你会看到同样的事情。

实际上,这种研究方式是对传统机器学习进行了重新思考,Achler 认为该过程就像深度学习、感知器、支持向量机(SVM) 、 卷积神经网络(CNN)、递归神经网络(RNN)、反向传播等研究一样。研究者们并没有打算解决即时学习这一难题。 “这项技术的目的非常明确,那就是尝试解释 AI 是怎样思考的。没有人想过如何让系统变得更灵活或是更具可信度,而它的整体目标是让 AI 决策更容易被访问。”

OptimizingMind 是一种以人脑运行方式为基础的算法,旨在使开发者能“观察到系统内部,理解它们(AI 系统)在干什么,并且很方便地编辑它们,而无需从头开始训练”。这能让机器学习“一步到位”,而神经网络马上就能学会。举例来说,人们能告诉 Siri 某一个词的定义,然后它会被存储起来。今天神经网络还达不到这一点,它们需要用无数案例不断训练学习。

所以 “透明访问”系统是什么意思呢?根据 Achler 的说法, 这个系统提供了一种实时观察 AI 决策的方法。 它可以访问权重、特点和节点,提供能读取这些信息的灵活性,并且能改写它们。最终,这个系统能让我们理解神经网络是怎么做出一个决策的。这个工具能帮助工程师们大幅减少机器开发的时间,帮企业节省资源。

此外 Achler 还表示,在提供透明度之外,这个算法还可以被修改。不但预期(expectations)能被表达出来,每个单独预期还能随着新信息立刻改变。

今天,大多数机器学习的方法使用一个正反馈(feedforward)技术。风险投资公司 Naiss.io 的联合创始人 Ed Fernandez 说,正反馈使用优化过的权重执行任务。在正反馈系统里,独特性信息( uniqueness information)依据训练中出现的频率被录入权重。这意味着整套训练中的权重必须经过优化。这又意味着 OptimizingMind 可以“根据正在被识别的模式执行优化”,这不是为了权重而优化,而是为了模式识别去优化。

当机器学习与商业更紧密结合,并成为无人驾驶和其他极其重要科技的基石,理解机器学习中到底发生了什么就变得至关重要。事实上, DARPA 最近启动了一项对可解释 AI (XAI,explainable artificial intelligence) 的投资。

正如 Veloso 教授说的:“我们不能假定 AI 系统完美无缺。”我们必须从 AI 的错误中学习。Veloso 表示,“如果某天发生了一起 AI 事故,我们必须避免它再次发生。”

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2016-11-16

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏CSDN技术头条

诺亚方舟实验室李航:深度学习还局限在复杂的模式识别上

李航认为,深度学习时代的到来是统计学习发展的必然趋势,今后若干年里深度学习还将是研究的热点,会有很多新技术开发出来,利用深度学习的应用也会有革命性的进步。尽管深...

21110
来自专栏钱塘大数据

【周末漫谈】人工智能的原理,技术和未来

? 星期二早上8:00。你已经醒了,扫了一眼手机上的标题,回复了一个在线帖子,为你妈妈订购了一件假日毛衣,锁上屋子开车上班,路上听一些好听的曲子。 在这个过...

3317
来自专栏AI科技大本营的专栏

你天天叫的外卖,你知道这里面深度学习的水有多深吗

很多人以为外卖不过是下单、送餐,不需要什么技术含量。这种理解其实很片面,外卖业务不仅需要技术,它高度个性化、精细化的需求,是要用深度学习技术来解决的。 本文以...

2804
来自专栏UAI人工智能

译-机器学习的十大误解

1263
来自专栏IT大咖说

人工智能普及,你要失业了?

1462
来自专栏华章科技

一文看懂人工智能:原理,技术和未来

【新智元导读】Facebook 官方博客更新,FAIR 主管、深度学习代表人物 Yann LeCun 与同事撰文,深入浅出解释什么是人工智能、人工智能如何影响我...

782
来自专栏新智元

机器学习先驱 Michael I. Jordan 清华演讲:更好的分布式机器学习(PPT)

【新智元导读】今天,机器学习诸多理论的主要奠基人、美国三院院士 Michael I. Jordan受聘为清华大学访问教授,同时发表主题报告。Jordan认为,大...

4336
来自专栏AI科技评论

深度 | Facebook AML实验室负责人: AI技术落地的N种方法

(Facebook AML实验室负责人 Joaquin Candela) 编者按:在Facebook,有两个实验室领导着AI发展方向,一个是Yann LeCun...

41115
来自专栏BestSDK

36本最适合学习AI的入门经典

NO.1 人工智能科普类:人工智能科普、人工智能哲学 ? 《智能的本质》斯坦福、伯克利客座教授 30 年 AI 研究巅峰之作 《科学 + 遇见人工智能》李开复、...

4025
来自专栏AI科技大本营的专栏

TensorFlow可以做什么?让Google Brain首席工程师告诉你

编辑 | 明明 1月19日,在极客公园创新者大会IF2018的现场,Google Brain首席工程师陈智峰发表题为:《找答案从定义问题开始 ——TensorF...

3925

扫码关注云+社区