学习
实践
活动
专区
工具
TVP
写文章

把乌龟认成枪?没想到人工智能会犯这样的错误

大家或多或少都见过这类图片吧:

3D的错位很容易引起视觉上的错觉。更不用说很多网红拍起来腿长2米8效果的图片也是一种视觉上的欺骗了。要是计算机遇到这样的情况,能分辨得出来吗?

刚说完谷歌研究院院长对于人工智能威胁论的反对,谷歌就推出了能够通过欺骗人类来达到错误学习效果的AI。

机器当然有可能犯错,而且一旦犯错,往往会导致巨大的危险。假如一辆自动驾驶的汽车,把迎面而来的白色卡车认错成一朵白色的云,那么后果不堪设想。

要避免这样的悲剧发生,人工智能领域的研究人员必须非常对于日常中最常见的意外有深度的认识,这样的话,机器才可以变得更加聪明。这也正是谷歌在做的事——同时研究人脑和神经网络。到现在为止,神经网络的意义在于人眼不会认错的地方,机器也不会认错。

谷歌这支研究团队包括了写了“深度学习”这本书的著名作者Ian Goodfellow。该团队一起发表了白皮书——《欺骗人类和计算机视觉中对抗性的例子(Adversarial Examples that Fool both Human and Computer Vision)》。书中指出,用来欺骗AI的办法对人脑不起作用,也就意味着人类大脑的这种更为灵活的优点,可以应用到神经网络中。

去年,麻省理工的一支研究团队对谷歌的AI进行对抗性的实验,在图片中加入简单的代码。通过这种方法,神经网络误将乌龟的图片认成了枪。而这两者的区别,三岁小孩都能分辨。

无论乌龟颜色如何改变,人眼肯定都不会认错成枪

其中的问题并不在与谷歌的AI系统,而是计算机普遍存在的缺陷——计算机没有眼睛。机器无法看到这个世界,只是处理图片。所以把图片的部分改了,机器就会因此犯错。

为了解决这一问题,谷歌开始研究为什么人类不容易被图片部分的改变而欺骗。或者说,要研究到底一种图片要如何改变,才可以欺骗到人类的大脑。

在这幅图像中,主要通过鼻子的改变,刚挖好煤的猫咪便成了刚挖好煤的狗

谷歌的这份白皮书因此提到:

“如果我们准确地认识到人类大脑能够抵抗某种特定类型的对抗性例子,那么这将为机器学习中类似机制安全提供一个存在的证明。”

westwell lab为各行业提供人工智能的解决方案

网址:http://www.westwell-lab.com 微博:@westwell类脑实验室

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180301A0UHBW00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

关注

腾讯云开发者公众号
10元无门槛代金券
洞察腾讯核心技术
剖析业界实践案例
腾讯云开发者公众号二维码

扫码关注腾讯云开发者

领取腾讯云代金券