首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

ShapeShifter: Robust Physical Adversarial Attack on Faster R-CNN Object Detector

鉴于直接操作数字输入空间中的图像像素的能力,对手可以很容易地产生难以察觉的扰动来欺骗深度神经网络(DNN)的图像分类器,正如前面的工作所证明的那样。在这项工作中,我们提出了ShapeShifter,这是一种解决更具挑战性的问题的攻击,即利用物理上的对抗扰动来愚弄基于图像的目标检测器,如Faster 的R-CNN。攻击目标检测器比攻击图像分类器更困难,因为需要在多个不同尺度的边界框中误导分类结果。将数字攻击扩展到物理世界又增加了一层困难,因为它需要足够强大的扰动来克服由于不同的观看距离和角度、光照条件和相机限制而造成的真实世界的扭曲。结果表明,原提出的增强图像分类中对抗性扰动鲁棒性的期望变换技术可以成功地应用于目标检测设置。变形机可以产生相反的干扰停止信号,这些信号经常被Faster R-CNN作为其他物体错误地检测到,对自动驾驶汽车和其他安全关键的计算机视觉系统构成潜在威胁。

05

详解计算机视觉五大技术:图像分类、对象检测、目标跟踪、语义分割和实例分割

译者 | 王柯凝 【 AI 科技大本营导读】目前,计算机视觉是深度学习领域最热门的研究领域之一。计算机视觉实际上是一个跨领域的交叉学科,包括计算机科学(图形、算法、理论、系统、体系结构),数学(信息检索、机器学习),工程学(机器人、语音、自然语言处理、图像处理),物理学(光学 ),生物学(神经科学)和心理学(认知科学)等等。许多科学家认为,计算机视觉为人工智能的发展开拓了道路。 那么什么是计算机视觉呢? 这里给出了几个比较严谨的定义: ✦ “对图像中的客观对象构建明确而有意义的描述”(Ballard&B

07

Container: Context Aggregation Network

卷积神经网络(CNNs)在计算机视觉中无处不在,具有无数有效和高效的变化。最近,Container——最初是在自然语言处理中引入的——已经越来越多地应用于计算机视觉。早期的用户继续使用CNN的骨干,最新的网络是端到端无CNN的Transformer解决方案。最近一个令人惊讶的发现表明,一个简单的基于MLP的解决方案,没有任何传统的卷积或Transformer组件,可以产生有效的视觉表示。虽然CNN、Transformer和MLP-Mixers可以被视为完全不同的架构,但我们提供了一个统一的视图,表明它们实际上是在神经网络堆栈中聚合空间上下文的更通用方法的特殊情况。我们提出了Container(上下文聚合网络),一个用于多头上下文聚合的通用构建块,它可以利用Container的长期交互作用,同时仍然利用局部卷积操作的诱导偏差,导致更快的收敛速度,这经常在CNN中看到。我们的Container架构在ImageNet上使用22M参数实现了82.7%的Top-1精度,比DeiT-Small提高了2.8,并且可以在短短200个时代收敛到79.9%的Top-1精度。比起相比的基于Transformer的方法不能很好地扩展到下游任务依赖较大的输入图像的分辨率,我们高效的网络,名叫CONTAINER-LIGHT,可以使用在目标检测和分割网络如DETR实例,RetinaNet和Mask-RCNN获得令人印象深刻的检测图38.9,43.8,45.1和掩码mAP为41.3,与具有可比较的计算和参数大小的ResNet-50骨干相比,分别提供了6.6、7.3、6.9和6.6 pts的较大改进。与DINO框架下的DeiT相比,我们的方法在自监督学习方面也取得了很好的效果。

04

计算机视觉怎么给图像分类?KNN、SVM、BP神经网络、CNN、迁移学习供你选(附开源代码)

原文:Medium 作者:Shiyu Mou 来源:机器人圈 本文长度为4600字,建议阅读6分钟 本文为你介绍图像分类的5种技术,总结并归纳算法、实现方式,并进行实验验证。 图像分类问题就是从固定的一组分类中,给输入图像分配标签的任务。这是计算机视觉的核心问题之一,尽管它看似简单,却在实际生活中有着各种各样的应用。 传统方式:功能描述和检测。 也许这种方法对于一些样本任务来说是比较好用的,但实际情况却要复杂得多。 因此,我们将使用机器学习来为每个类别提供许多示例,然后开发学习算法来查看这些示例

012

AD分类论文研读(1)

原文链接 摘要 将cv用于研究需要大量的训练图片,同时需要对深层网络的体系结构进行仔细优化。该研究尝试用转移学习来解决这些问题,使用从大基准数据集组成的自然图像得到的预训练权重来初始化最先进的VGG和Inception结构,使用少量的MRI图像来重新训练全连接层。采用图像熵选择最翔实的切片训练,通过对OASIS MRI数据集的实验,他们发现,在训练规模比现有技术小近10倍的情况下,他们的性能与现有的基于深层学习的方法相当,甚至更好 介绍 AD的早期诊断可以通过机器学习自动分析MRI图像来实现。从头开始训练一个网络需要大量的资源并且可能结果还不够好,这时候可以选择使用微调一个深度网络来进行转移学习而不是重新训练的方法可能会更好。该研究使用VGG16和Inception两个流行的CNN架构来进行转移学习。结果表明,尽管架构是在不同的领域进行的训练,但是当智能地选择训练数据时,预训练权值对AD诊断仍然具有很好的泛化能力 由于研究的目标是在小训练集上测试转移学习的鲁棒性,因此仅仅随机选择训练数据可能无法为其提供表示MRI足够结构变化的数据集。所以,他们选择通过图像熵提供最大信息量的训练数据。结果表明,通过智能训练选择和转移学习,可以达到与从无到有以最小参数优化训练深层网络相当甚至更好的性能 方法 CNN的核心是从输入图像中抽取特征的卷积层,卷积层中的每个节点与空间连接的神经元的小子集相连,为了减少计算的复杂性,一个最大池化层会紧随着卷积层,多对卷积层和池化层之后会跟着一个全连接层,全连接层学习由卷积层抽取出来的特征的非线性关系,最后是一个soft-max层,它将输出归一化到期望的水准 因为小的数据集可能会使损失函数陷入local minima,该研究使用转移性学习的方法来尽量规避这种情况,即使用大量相同或不同领域的数据来初始化网络,仅使用训练数据来重新训练最后的全连接层 研究中使用两个流行的架构: VGG16

04
领券