目标检测-- DeNet: Scalable Real-time Object Detection with Directed Sparse Sampling

DeNet: Scalable Real-time Object Detection with Directed Sparse Sampling ICCV2017 An easily extendedTheanobased code: https://github.com/lachlants/denet

本文针对候选区域提取这个步骤进行加速: 使用角点提取来初步过滤大部分候选区域

我们提出的 DeNet 网络

1.2. Probabilistic Object Detection 这里对候选区域提取这个步骤使用了一些符号表示方法来描述, 可能的候选区域位置有很多,计算量很大。 所以在损失一定定位精度的情况下, subsampling the output bounding boxes 是一个合理的选择,例如 Faster R-CNN and YOLO 大概采样了一万到十万个 bounding boxs

2 Directed Sparse Sampling (DSS) 2.1. Corner-based RoI Detector 估计每个位置是否是 4 corner types 中的一个, Pr(t|k,y,x) ,其中 t 是一个二值变量, indicating the presence of a corner of type k ∈ { top left,top right,bottom left,bottom right } at position (x,y) in the input image

因为问题中天然的平移不变性,可以使用一个 标准的CNN网络来快速有效的进行角点分布估计,这个CNN可以在 有矩形框标记的数据上训练。

有了 corner distribution 之后,我们使用一个 Naive Bayesian Classifier 来确定每个角点对应得矩形框内是否包含物体

对于含有物体的矩形框,我们对矩形框相对固定位置进行采样,得到一个固定长度的 feature vector ,我们使用这个向量输入分类器,得到最终结果:该矩形框是否包含物体。 It is important that the feature is uniquely associated with each bounding box 特征是独一无二的 uniquely

2.2. Training 我们的损失函数定义如下: corner probability distribution, final classification distribution and bounding box regression cost

2.3. Detection Model 这里我们使用了 Residual neural networks 作为基础模型,一个34层,一个是 101层。 As the base model to our networks we selected the 34 layer, 21M parameter ResNet-34 model (DeNet-34) and the 101 layer, 45M parameter ResNet-101 model (DeNet-101)

我们的输入图像尺寸是 512*512,去掉最后的均值池化和全连接层,在角点检测器后面加了两个反卷积层。 corner detector 用于生成 corner distribution,通过一个 learnt linear projection 生成一个 feature sampling map。 反卷积层主要用于放大特征图尺寸。

corner detector 之后是 sparse layer,通过观察角点生成 一组 bounding boxes 。然后我们在这些矩形框里对应的 feature sampling map 采样,得到一个长度为 7 × 7 × F s + 2 的特征向量,该向量输入 a relatively shallow fully connected network 得到最终结果: generate the final classification and fine tuned bounding box for each sampling RoI

2.3.1 Skip Layer Variant 加了一些 Skip Layer 改进

2.3.2 Wide Variant 用了更大的特征图尺寸,采样了更多的位置

3.2. Identifying Sampling Bounding Boxes (RoIs) 角点分布的快速搜索如下:

4 Results and Analysis

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏窗户

为什么有导师的基于梯度下降的机器学习喜欢用欧氏距离来度量误差

  bp神经网络为大家所熟知,推导中使用了基于梯度下降。而对于更为一般的情况,解决问题的出发点是建立一组函数fi(Ci,Xi), i=1..n,n为输出的个数,...

2426
来自专栏量化投资与机器学习

Matlab编程之——卷积神经网络CNN代码解析

这这是之前我共享的一个深度学习工具包,这是解释代码的一部分,具体的一些细节还还望大家根据自己的能力去做,慢慢去理解。不急昂! 源代码我公布出来希望大家学习交流,...

46210
来自专栏机器学习算法与Python学习

Machine Learning -- 11种相似性度量方法(总结版)

在做分类时常常需要估算不同样本之间的相似性度量(Similarity Measurement),这时通常采用的方法就是计算样本间的“距离”(Distance)。...

5037
来自专栏林德熙的博客

卷积神经网络全面解析

本文转自: http://www.moonshile.com/post/juan-ji-shen-jing-wang-luo-quan-mian-jie-xi ...

2392
来自专栏机器学习原理

机器学习(5)——KNNKNNKD Tree

前言:KNN算法以一种“物以类聚”为思想的方法,它不同于前面提到的回归算法,没有损失函数,通过判断预测值离的远近来预测结果。主要分为KNN算法和KD-Tree来...

3545
来自专栏AI研习社

教你理解图像学习中的方向梯度直方图(Histogram Of Gradient)

本文主要翻译了Histogram of Oriented Gradients一文。 特征描述子(Feature Descriptor) 特征描述子就是图像的...

4356
来自专栏数值分析与有限元编程

子空间迭代法求结构自振频率

在结构模态分析中一般不需要求解结构的所有特征对,而只需要求解部分低阶特征对。子空间迭代算法就是用于求解结构部分低阶特征对。许多著名的商业有限元分析软件都有这种求...

3875
来自专栏自学笔记

Neural Network

重新回顾一下一开始学的PLA,preceptron learning Algorithm。PLA适用于二维及高维的线性可分的情况,如果是非线性可分的数据,如果使...

2412
来自专栏机器学习之旅

理论:聚类算法思路总结

常见的为欧式距离(L1 norm)&&p=2,拓展的可以有闵可夫斯基距离(L2 norm)&&p=1:

792
来自专栏GopherCoder

线性代数:一切为了更好的理解

1962

扫码关注云+社区

领取腾讯云代金券