人群分析--Beyond Counting: Comparisons of Density Maps for Crowd Analysis Tasks

Beyond Counting: Comparisons of Density Maps for Crowd Analysis Tasks - Counting, Detection, and Tracking https://arxiv.org/abs/1705.10118

基于人群密度图估计的人群分析,这里我们主要对比各种 CNN-based density estimation methods 用于 counting, detection, and tracking,我们得到的结论是 high-quality density maps 对于 detection 和 tracking 都是有帮助的。

基于密度图估计的计数思想最早是由文献【3】提出的 Maximum Excess over Sub Array (MESA) distance。 随后各种 CNN 来估计密度图

本文主要考虑两个CNN网络生成 full-resolution density maps:CNN-pixel 和 FCNN-skip

对于 CNN-pixel,我们使用一个 classic CNN regressor for pixel-wise density prediction 也就是说用滑动窗口的方式来得到每个像素的预测结果 given an image patch, predict the density at the center pixel. The full-resolution density map is obtained using a sliding window to obtain density values for all pixels inside the ROI.

对于 Fully Convolutional Architecture: hole convolution 的效果要比 FCNN-skip 差

C. Detection from Density Maps 根据密度图来做检测,首先是文献【11】提出的

D. Improving Tracking with Density Maps 用密度图来改善跟踪

Experiments 实验使用的数据库:

UCSD dataset

Summary In summary, CNN-pixel performs best on various metrics, including compactness, localization MAE, and temporal smoothness. This suggests that using full-resolution perpixel prediction of the density map can improve detection and tracking. In contrast, reduced-resolution maps that require either fixed upsampling (CNN-patch and MCNN) or learned upsampling-convolution (FCNN-skip and MCNN-up) had worse quality metrics, resulting in poorer detection/tracking accuracy. The downsampling operations in the CNN obfuscate the true position of the people in the reduced-resolution maps. This loss of spatial information can only be partially compensated using learned upsampling and skip connections.

However, dense prediction suffers from higher computational complexity, compared to fully-convolutional networks

一句话: CNN-pixel 效果好但是计算量大

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器之心

ACL 2018 | 神经语言模型如何利用上下文信息:长距离上下文的词序并不重要

2065
来自专栏人工智能

MLlib中的随机森林和提升方法

本帖是与来自于Origami Logic 的Manish Amd共同撰写的。

24810
来自专栏人工智能头条

Hype:组合机器学习和超参数优化

1898
来自专栏Petrichor的专栏

论文阅读: Soft-NMS

传统的NMS (Non-Maximum Supression)去重过程如下:

1772
来自专栏专知

【专知-Java Deeplearning4j深度学习教程05】无监督特征提取神器—AutoEncoder:图文+代码

【导读】主题链路知识是我们专知的核心功能之一,为用户提供AI领域系统性的知识学习服务,一站式学习人工智能的知识,包含人工智能( 机器学习、自然语言处理、计算机视...

46811
来自专栏小鹏的专栏

机器学习中的Bias(偏差),Error(误差),和Variance(方差)有什么区别和联系?

首先 Error = Bias + Variance + Noise Error反映的是整个模型的准确度,Bias反映的是模型在样本上的输出与真实值之间的误差...

2768
来自专栏深度学习自然语言处理

这些神经网络调参细节,你都了解了吗

今天在写本科毕业论文的时候又回顾了一下神经网络调参的一些细节问题,特来总结下。主要从weight_decay,clip_norm,lr_decay说起。

1212
来自专栏机器之心

预训练BERT,官方代码发布前他们是这样用TensorFlow解决的

本文介绍的两个 BERT 实现项目分别基于 TensorFlow 和 Keras,其中基于 TensorFlow 的项目会使用中等数据集与其它技巧降低计算力,并...

1002
来自专栏人工智能

AlphaGo Zero 五大亮点,全靠临场发挥也能赢

喜欢机器学习和人工智能,却发现埋头苦练枯燥乏味还杀时间?雷锋字幕组译制油管频道 Arxiv Insights 每周精选,从技术视角出发,带你轻松深度学习。 翻译...

21410
来自专栏企鹅号快讯

一次不成功的深度学习实践-微信跳一跳

最近微信的跳一跳小程序火了一把,所以前天也更新了微信玩了几盘,最多手动到200左右就不行了。 ? 后来准备用代码写个辅助工具,上Github一查,已经有人做出来...

2255

扫码关注云+社区