论文阅读: YOLOv1

Introduction

YOLOv1是one-stage detector鼻祖、real-time detector鼻祖。

所谓one-stage,即不需额外一个stage来生成RP,而是直接分类回归出output:

YOLOv1直接将整张图片分成 S×SS×SS\times S 的小格子区域,每个区域生成 BBB 个bbox(论文中B=2B=2B=2),每个bbox去预测中心点落在该格的物体。但是每个格子生成的所有BBB个bbox共享 一个分类score

因此,YOLOv1最后一层的输出是一个 S×S×(B∗5+C)S×S×(B∗5+C)S\times S \times (B * 5 + C) 的 tensor 。 其中,SSS为每维的格子段数,BBB为每格生成的bbox数,CCC为前景类别数。

YOLOv1=24×Conv+2×FCYOLOv1=24×Conv+2×FCYOLOv1 = 24\times Conv + 2\times FC:

Note

  • 经过权衡利弊,YOLOv1采用了山寨版的GoogleNet作为basemodel,而非VGG;
  • 在第24层时,每个单点对应原图的感受野达到了782×782782×782782\times 782。而原图只有448×448448×448448\times 448,覆盖了整张原图。也就意味着,到了第24层的时候,每个单点都能看到整张原图。更不要提第25、26层是两个fc操作了。
  • 另外,Fast YOLOv1=9×Conv+2×FCFast YOLOv1=9×Conv+2×FCFast\ YOLOv1 = 9\times Conv + 2\times FC。速度更快,但精度也略低。

Innovation

  • one-stage detector鼻祖、real-time detector鼻祖,里程碑级的贡献。
  • 从image pixel直达bbox cordination和class probability。
  • 设计得很有新意,直接输出每个bbox的cls和reg结果(同一条向量上),并把分为前景的bbox向量条打到图上。
  • 每个grid只负责一个物体。这样自然将候选框数量大幅砍削到了 S×S×BS×S×BS\times S\times B 。有效缓解了类别不平衡,却也放弃了对每个ground truth框的大量试错机会。

Result

YOLOv1最大的优点就是“快”,“灰常快”。YOLOv1的检测速度为 45 fps ;Fast YOLOv1甚至达到了 155 fps

不过作者自己也承认,精度方面还是和two-stage系中的state-of-the-art水平是有差距的:

但是,虽然整体检测精度(mAP)不如你Fast R-CNN,但是我对背景的检测精度比你高了一倍多啊:

然而这么比就有点不公平了。YOLOv1只生成少量候选框的机制,决定了遇到的背景框数量远少于Fast R-CNN,因此受到类别不平衡问题的影响更小,自然对背景框的检测精度就高啦。

Fast R-CNN + YOLOv1 的效果还比纯粹的Fast R-CNN高了2.3个点:

在各种实验的过程中,作者还惊喜地发现,YOLOv1在艺术图片上的泛化性能也是一大亮点:

以下第一排就是各种艺术画:

拿艺术画的检测结果demo并放入论文中的做法,也是很有新意。

Thinking

  • 每个grid只负责一个物体。非常简单粗暴,这明显是对实际场景数据的观察得到的结果。 因为数据集中的大部分图片都是常规图片,分布有秩,大小合理。因此YOLOv1对于大部分常规图片检测是高效可行的。 但是小部分非常规图片(两个以上物体的中心位置落入同一个grid),直接就把YOLOv1的mAP值给拉低了。
  • 同时,由于YOLOv1只针对最后7x7的特征图进行分析,使得它对小目标的检测效果不佳。
  • YOLOv1在鱼 (检测速度) 与熊掌 (检测精度) 中选择了短平快的方式,突破two-stage的格局限制,创造出one-stage。虽然离最高mAP还略有差距,但是速度的暴涨,让real-time detection成为现实。这一点,YOLOv1功在千秋。
  • YOLOv1由于精度太差,而空有那么高的检测速度。因此在实际落地中,基本不用YOLOv1。甚至连对实时性要求极高的自动驾驶,也是使用的FPN(+Faster R-CNN)。

[1] You Only Look Once: Unified, Real-Time Object Detection [2] YOLO - Google Slides [3] 论文阅读笔记:You Only Look Once: Unified, Real-Time Object Detection

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器之心

学界 | 如何通过方差偏移理解批归一化与Dropout之间的冲突

35250
来自专栏数据派THU

深度学习中的正则化技术(附Python代码)

本文简单介绍了什么是正则化以及在深度学习任务中可以采用哪些正则化技术,并以keras代码具体讲解了一个案例。

31150
来自专栏MyBlog

Procedural Noise Adversarial Examples for Black-Box Attacks on Deep Neural Networks论文笔记(1)

如今一些深度神经网络对于一些对抗性样本(Adversarial sample)是弱势的, 对抗性样本就是指我们对输入进行特定的改变, 通过原有的学习算法最终导致...

30530
来自专栏视觉求索无尽也

SIFT特征的原理学习资料开始学习

SIFT特征不只具有尺度不变性,即使改变图像的旋转角度,亮度或拍摄视角,仍然能够得到好的检测效果。

15320
来自专栏null的专栏

简单易学的机器学习算法——主成分分析(PCA)

一、数据降维        对于现在维数比较多的数据,我们首先需要做的就是对其进行降维操作。降维,简单来说就是说在尽量保证数据本质的前提下将数据中的维数降低。降...

36150
来自专栏小詹同学

深度学习神经网络第①篇——感知器及其Python实现

感知器是由美国计算机科学家罗森布拉特(F.Roseblatt)于1957年提出的。感知器可谓是最早的人工神经网络。单层感知器是一个具有一层神经元、采用阈值激活函...

17640
来自专栏机器之心

学界 | 华盛顿大学推出YOLOv3:检测速度快SSD和RetinaNet三倍(附实现)

选自pjreddie 作者:Joseph Redmon、Ali Farhadi 机器之心编译 近日,来自华盛顿大学的 Joseph Redmon 和 Ali F...

41740
来自专栏AI研习社

计算机视觉中,有哪些比较好的目标跟踪算法?(下)

相信很多来这里的人和我第一次到这里一样,都是想找一种比较好的目标跟踪算法,或者想对目标跟踪这个领域有比较深入的了解,虽然这个问题是经典目标跟踪算法,但事实上,可...

86260
来自专栏目标检测和深度学习

学界 | 华盛顿大学推出YOLOv3:检测速度快SSD和RetinaNet三倍(附实现)

选自pjreddie 作者:Joseph Redmon、Ali Farhadi 近日,来自华盛顿大学的 Joseph Redmon 和 Ali Farhadi ...

38960
来自专栏AI深度学习求索

实验artifacts优化:生成图片反卷积与棋盘伪影

生成图片实验中总会出现各种各样的artifacts,这几天跑实验遇到了棋盘伪影,在前辈指导下了解了如何解决这个问题,记录一下

26020

扫码关注云+社区

领取腾讯云代金券