告别“黑盒”:科学家正传授人工智能自我解释能力

一支由多国研究人员组成的科研团队近期开始向人工智能传授自我判断和解释的能力,并指出做出这个决定的依据和理由。“黑盒”正变得透明,这对于人工智能领域来说无疑是重大事件。 在人工智能领域搞清楚神经网络为何做出这些决定是众多科研专家攻克的方向,黑盒问题本质上就是我们真的信任人工智能系统。

该团队来自伯克利大学、阿姆斯特丹大学、MPI for Informatics以及Facebook的人工智能研究部门,他们的研究建立在此前的工作基础上,只不过这次他们向人工智能传授了新的技巧。

所谓“黑盒子”,是指从用户的观点来看一个器件或产品时,并不关心其内部构造和原理,而只关心它的功能及如何使用这些功能。但从研究者的角度讲,搞清楚内部构造和原理是必须的。

同人类相同,他能够“指出”回答某个问题所需要的依据,并通过文本描述的方式来阐述是如何理解这个依据的。团队所提出的问题基本上是人类9岁的智力水平能够回答的问题。

根据团队近期公布的白皮书,这是首次人造系统能够以两种不同方式来进行自我解释。在论文中写道:“我们的模型首次具备提供决定的自然语言判断以及在图片中指出依据的能力。”

科研专家开发的人工智能能够回答关于图像的某些常规问题,在给定的情境中能够回答关于图像主体和动作的相关问题。并且该人工智能能够通过描述所看到的内容并且高亮图片中的某些部分来给出依据回答。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180228C0O11C00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注腾讯云开发者

领取腾讯云代金券