首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

学界 | Ian Goodfellow最新论文:是猫还是狗?不光神经网络识别不了,你也能被忽悠

大数据文摘作品 作者:小鱼、龙牧雪 上面这张图里,是猫还是狗?再好好想想,你能肯定吗? 根据胡子、鼻子较短判断,左边的似乎是猫。但是再看看右边,这明显是只狼狗吧(诡异的戴着蝴蝶结的狼狗orz)。但是这明明是一张图啊?怎么回事? 都是深度学习搞的鬼。 这是Ian Goodfellow大神2月22号最新论文里的成果。对抗性干扰,既能骗过神经网络,也能骗过人眼了。 先回忆一下我们是怎么忽悠神经网络的。 不久前,文摘菌发布过一篇关于如何利用一个小贴纸,让各大著名图像识别算法纷纷破功的文章(自带迷幻剂技能的小贴纸:忽

04

自带迷幻剂技能的小贴纸:忽悠神经网络,让它将一切都当作烤面包机!

大数据文摘作品 编译:Katrine.Ren、元元 当下的图像识别技术看似愈发成熟了,但自带蠢萌属性的它实际上依然可以被轻易愚弄。 研究人员最近就成功忽悠了一把以智能著称的算法,让它们一脸懵逼地犯下了一系列错误: 比如把两个滑雪的人辨识为一只狗,把一个棒球看成是一杯意式咖啡,又例如把一只乌龟误认为是一把步枪。 最新的一个欺骗机器的方法操作更为简单,却有更深远的影响,所需要的道具也仅仅是一张简陋的贴纸而已。 图注按顺序为:将贴纸放在桌上,输入分类器的图像,分类器输出结果 这款由谷歌的研究人员新近开发的自带迷幻

03

递归神经网络(RNN)在语义识别方面的应用

背景 数据时代已经到来,当今企业家们已经认识到数据的重要性,并且期望通过数据分析能够驱动增长。企业业务流程面临“计划驱动”转型到”数据驱动“的巨大变革。企业需要关注的不是大数据问题,而是从小数据问题开始,关注数据价值挖掘和数据安全。未来的数据分析要求更高,数据分析的粒度会更加细腻,用户行为数据愈加重要。 本次分享主题《递归神经网络(RNN)在语义识别方面的应用》,嘉宾是参与”《数据驱动未来》 CDA数据分析师俱乐部活动·深圳站“的 深度学习专家及图像识别算法高级工程师-陈远波。 以下就跟着陈远波老师的思维一

011

使用SCF进行图像分类

图像相比文字能够提供更加生动、容易理解及更具艺术感的信息,是人们转递与交换信息的重要来源,也是图像识别领域的一个重要问题,图像分类是根据图像的语义信息将不同类别图像区分开来,是计算机视觉中重要的基本问题,也是图像检测、图像分割、物体跟踪、行为分析等其他高层视觉任务的基础。图像分类在很多领域有广泛应用,包括安防领域的人脸识别和智能视频分析等,交通领域的交通场景识别,互联网领域基于内容的图像检索和相册自动归类,医学领域的图像识别等。一般来说,图像分类通过手工特征或特征学习方法对整个图像进行全部描述,然后使用分类器判别物体类别,因此如何提取图像的特征至关重要。但是如果靠自己实现一个图像识别算法是不容易的,我们可以使用ImageAI来完成这样一个艰巨的任务。

07

学界 | 康奈尔大学说对抗样本出门会失效,被OpenAI怼回来了!

AI科技评论按:看来,我们还是不能对对抗样本问题掉以轻心。 上周,康奈尔大学的一篇论文表示,当图像识别算法应用于实际生活场景下(比如自动驾驶)时,可能不需要那么担心对抗样本问题。他们做了一系列实验,从不同角度和方向拍下受到干扰的停车标志的图片,将图像进行识别,结果表明,现有的对抗性干扰只在特定场景下适用。详情可以看AI科技评论之前的报道:康奈尔大学最新研究:对抗性样本是纸老虎,一出门就不好使! 而昨天,针对康奈尔大学的论文,OpenAI表示,他们已经生成了一些图像,当从不同大小和视角来观察时,能可靠地骗过神

08
领券