首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI如何做决策?

AI做决策的过程迥异于我们人类。我们是不会如此拘泥于局部的。面对一张鹿的图,即使把它的角打上马赛克,我们也还是可以根据分叉的蹄子认出鹿来的,但对于“死板”的AI,它很可能就把它认作驴了。

太拘泥于细节的AI

最近一段时间,AI(人工智能)被炒得神乎其神,似乎它无所不能。但事实上,据社交网站“脸谱”披露,要想欺骗AI把某个不存在的东西当作真实存在,比你想象的要容易得多。

譬如,在一张高清晰度的图片中,随机地降低某些地方的像素。这么一点微不足道的变化,人眼根本难以觉察,也不会影响我们的判断;但AI却能觉察出来其中的差异,并因此严重干扰了判断,比如说把图中的猫误认作了狗。

再比如,据说现在谷歌的语音识别AI功能已经非常强大,能一边听语音,一边笔录成文字。但一位AI工程师略施小计,就把它给耍弄了:他在语音文件中掺入少量数码噪声,这点噪声对于我们是不会有什么影响的,但让谷歌的AI去识别,结果却是笔录下来的文字已跟原意大不一样。

这些低级错误揭示出当前AI的一个重大缺陷:太拘泥于细节,“只见树木,不见森林”,让无谓的细节影响了对整体的判断。如果这个弱点被黑客利用,后果不堪设想。他们将能够操纵无人驾驶汽车狂奔,无视红绿灯;或者让犯罪嫌疑人轻易躲过AI控制的监控摄像头。

AI的决策规则不易被人知

为了解决这个问题,这就需要我们先去了解AI是如何自我学习,如何做决策的,但这一直是个难题。因为AI在自我学习过程中,经过海量的数据训练之后,会自创一套决策规则,但它最后创立的规则到底是什么,这对于AI的设计者有时候都是一个谜。这一点其实跟人也是相似的。譬如,老师在课堂上向你传授知识,但你是如何把这些知识点组织起来的,他也不见得清楚。

最近,美国布朗大学的克里斯·格林和他的同事开发了一个系统,有望突破这个困难。

这个系统能够分析,当AI对一个图像做判断时,它是根据图像的哪一部分做出判断的;与此类似的,对于给文件自动归档的AI,这个系统也能够分析,AI是根据文档里的哪个词对文档进行归类的。

为开发这个工具,研究小组用数码噪声依次替换图片的一部分(相当于给这部分图片打马赛克),以便看看这样替换之后,是否会对AI的判断产生影响。如果更换部分的图片改变了AI最终的判断,那说明图片的这块区域可能正是影响AI判断的关键所在。

一窥AI的决策过程

格林在给图片分类的一个AI上测试了他的系统。这个AI被训练把图片分成10个类,包括飞机、鸟、鹿和马等。格林的系统能够暗中查看,当AI对图片进行分类时,什么是它所倚重的,什么是被它忽略不计的。

结果表明,AI先是将图片上的物体分解成不同的元素,然后搜索图片中的每一个元素以确定把图片归到哪一类。

举个例子。当AI观察马的图片时,它首先关注的是其腿部,然后,寻找它的头部。在观察鹿的图片时,它也采用类似的办法,不过在关注了鹿的腿部之后,它接下去搜寻的不是头,而是鹿角,因为鹿角是最能把鹿跟其他动物区别开来的,所以鹿角被置于优先的地位。至于图片的其他地方,则被AI完全忽略了。

从这里我们看出,AI做决策的过程迥异于我们人类。我们是不会如此拘泥于局部的。面对一张鹿的图,即使把它的角打上马赛克,我们也还是可以根据分叉的蹄子认出鹿来的,但对于“死板”的AI,它很可能就把它认作驴了。

格林的软件可以帮助我们测试现有的AI,以便确保它们下判断时,关注的是我们认为重要的东西,这对于改进AI有重要的价值。

(摘自《百科新说》)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180810A0RBPI00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券