首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌拟通过AI欺骗人类让机器学习从错误中吸收经验

据外媒报道,让机器人看到不存到的东西或完全让其将图像归类错误也许是一场有趣、好玩的游戏,但如果一套汽车的自动驾驶系统将一辆白色卡车错认成一朵白云时,这一切就跟好玩没有任何关系了。

为了避免这样的悲剧发生,谷歌的AI研究人员决定想办法改变这种情况。据了解,这家公司正在对人类大脑和神经网络同时展开研究。

到目前为止,神经科学已经通过神经网络的建立来显示其在AI领域上取得的进展。

现在,来自谷歌的一个研究团队刊登了一份名为《欺骗人类和计算机视觉的对抗性例子(Adversarial Examples that Fool both Human and Computer Vision)》的白皮书。该项研究指出,用来欺骗AI的方法对人类大脑没用。这意味着研究人员可以将人类大脑的这种更富弹性的特质应用到神经网络中。

去年,MIT研究人员对Google AI实施了抗性攻击,他们要做的只是往一张图像里嵌入一些简单的代码。为了达到这个目的,研究团队让神经网络相信它看到的是一把步枪,而实际上是海龟。估计年龄在3岁以上的孩子都知道这两者的区别。

而之所以会出现这种情况其背后的原因并非来自Google AI本身,而是所有计算机的一个简单缺陷,即没有眼球。机器人无法“看到”世界,而只在处理图像,这使得它们变得非常好欺骗。

为了解决这一问题,谷歌试图弄明白人类对特定图像处理形式拥有对抗性的原因。也许更重要的是搞明白究竟怎样才能欺骗到人类的大脑。

白皮书写道:“如果我们确切地了解到人类大脑能够抵抗某种特定类型的对抗性例子,那么这将成为机器学习中类似机制安全提供一个存在证明。” 相关新闻接管监控任务 谷歌旗下DeepMind教AI预测死亡 谷歌软件和AI太优秀 它的硬件也能做到伟大吗? 神奇!谷歌AI可以通过扫描人的眼睛来预测心脏病 Facebook谷歌AI研究者为什么就在CEO旁边工作? 谷歌开放AI芯片公测版 可加快机器学习速度 责编:陶宗瑶(实习生)

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180301C0GW0300?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券