首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器人容易被骗?谷歌AI研究人员将改变这种状况

机器人容易被骗?谷歌AI研究人员将改变这种状况

作者头像
机器人网
发布2018-04-12 14:57:46
4810
发布2018-04-12 14:57:46
举报
文章被收录于专栏:机器人网机器人网机器人网

据外媒报道,让机器人看到不存到的东西或完全让其将图像归类错误也许是一场有趣、好玩的游戏,但如果一套汽车的自动驾驶系统将一辆白色卡车错认成一朵白云时,这一切就跟好玩没有任何关系了。

为了避免这样的悲剧发生,谷歌的AI研究人员决定想办法改变这种情况。据了解,这家公司正在对人类大脑和神经网络同时展开研究。到目前为止,神经科学已经通过神经网络的建立来显示其在AI领域上取得的进展。

近日,谷歌的一个研究团队刊登了一份名为《欺骗人类和计算机视觉的对抗性例子(Adversarial Examples that Fool both Human and Computer Vision)》的白皮书。该项研究指出,用来欺骗AI的方法对人类大脑没用。这意味着研究人员可以将人类大脑的这种更富弹性的特质应用到神经网络中。

去年,MIT研究人员对Google AI实施了抗性攻击,他们要做的只是往一张图像里嵌入一些简单的代码。为了达到这个目的,研究团队让神经网络相信它看到的是一把步枪,而实际上是海龟。估计年龄在3岁以上的孩子都知道这两者的区别。

而之所以会出现这种情况其背后的原因并非来自Google AI本身,而是所有计算机的一个简单缺陷,即没有眼球。机器人无法“看到”世界,而只在处理图像,这使得它们变得非常好欺骗。

为了解决这一问题,谷歌试图弄明白人类对特定图像处理形式拥有对抗性的原因。也许更重要的是搞明白究竟怎样才能欺骗到人类的大脑。

白皮书写道:“如果我们确切地了解到人类大脑能够抵抗某种特定类型的对抗性例子,那么这将成为机器学习中类似机制安全提供一个存在证明。”

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-03-19,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器人网 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档