人群分析--Beyond Counting: Comparisons of Density Maps for Crowd Analysis Tasks

Beyond Counting: Comparisons of Density Maps for Crowd Analysis Tasks - Counting, Detection, and Tracking https://arxiv.org/abs/1705.10118

基于人群密度图估计的人群分析,这里我们主要对比各种 CNN-based density estimation methods 用于 counting, detection, and tracking,我们得到的结论是 high-quality density maps 对于 detection 和 tracking 都是有帮助的。

基于密度图估计的计数思想最早是由文献【3】提出的 Maximum Excess over Sub Array (MESA) distance。 随后各种 CNN 来估计密度图

本文主要考虑两个CNN网络生成 full-resolution density maps:CNN-pixel 和 FCNN-skip

对于 CNN-pixel,我们使用一个 classic CNN regressor for pixel-wise density prediction 也就是说用滑动窗口的方式来得到每个像素的预测结果 given an image patch, predict the density at the center pixel. The full-resolution density map is obtained using a sliding window to obtain density values for all pixels inside the ROI.

对于 Fully Convolutional Architecture: hole convolution 的效果要比 FCNN-skip 差

C. Detection from Density Maps 根据密度图来做检测,首先是文献【11】提出的

D. Improving Tracking with Density Maps 用密度图来改善跟踪

Experiments 实验使用的数据库:

UCSD dataset

Summary In summary, CNN-pixel performs best on various metrics, including compactness, localization MAE, and temporal smoothness. This suggests that using full-resolution perpixel prediction of the density map can improve detection and tracking. In contrast, reduced-resolution maps that require either fixed upsampling (CNN-patch and MCNN) or learned upsampling-convolution (FCNN-skip and MCNN-up) had worse quality metrics, resulting in poorer detection/tracking accuracy. The downsampling operations in the CNN obfuscate the true position of the people in the reduced-resolution maps. This loss of spatial information can only be partially compensated using learned upsampling and skip connections.

However, dense prediction suffers from higher computational complexity, compared to fully-convolutional networks

一句话: CNN-pixel 效果好但是计算量大

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏深度学习与计算机视觉

理解交叉熵作为损失函数在神经网络中的作用

交叉熵的作用 通过神经网络解决多分类问题时,最常用的一种方式就是在最后一层设置n个输出节点,无论在浅层神经网络还是在CNN中都是如此,比如,在AlexNet中最...

3049
来自专栏机器学习养成记

聚类(二):k-means算法(R&python)

聚类算法属于无监督的机器学习算法,即没有类别标签y,需要根据数据特征将相似的数据分为一组。k-means为聚类算法中最简单、常见的一种,通过计算距离,将相似性高...

3627
来自专栏李智的专栏

斯坦福CS231n - CNN for Visual Recognition(1)-lecture2图像分类、最近邻分类器

  顾名思义,就是给定一个图像,判断出它属于哪一个类。通常通过带有标签的数据作为训练集用各种方法进行训练, 然后在测试集上进行测试,预测出最可能的类别(标签)。

631
来自专栏Soul Joy Hub

《深度学习Ng》课程学习笔记03week2——机器学习(ML)策略(2)

http://blog.csdn.net/u011239443/article/details/78132697 2.1 进行误差分析 标注错误: ? 2...

3358
来自专栏社区的朋友们

机器学习概念总结笔记(三)

C4.5 算法有如下优点:产生的分类规则易于理解,准确率较高。其缺点是:在构造树的过程中,需要对数据集进行多次的顺序扫描和排序,因而导致算法的低效。此外,C4....

5451
来自专栏机器学习算法与Python学习

Machine Learning -- Boosting

本来想写随机森林的但是由于其中用到了太多提升的思想,所以就先整理整理提升的相关概念。 Boosting方法是一种用来提高弱分类算法准确度的方法,这种方法通过构造...

3136
来自专栏磐创AI技术团队的专栏

【干货】词向量之DNN模型

1 词向量 在NLP里,最细的粒度是词语,由词语再组成句子,段落,文章。所以处理NLP问题时,怎么合理的表示词语就成了NLP领域中最先需要解决的问题。 因为语...

3814
来自专栏null的专栏

简单易学的机器学习算法——神经网络之BP神经网络

一、BP神经网络的概念     BP神经网络是一种多层的前馈神经网络,其主要的特点是:信号是前向传播的,而误差是反向传播的。具体来说,对于如下的只含一个隐层的神...

3294
来自专栏机器人网

机器学习十大算法:新手看了变老手

在机器学习中,有一种叫做「没有免费的午餐」的定理。简而言之,它指出没有任何一种算法对所有问题都有效,在监督学习(即预测建模)中尤其如此。

1244
来自专栏数据科学与人工智能

代价函数

代价函数,度量【假设集】的准确性。 机器学习中常用的代价函数,总结如下: 1 误差平方和函数 ? 说明:yi 是模型预测值,oi是样本实际值 2 交叉熵函数...

3316

扫码关注云+社区