前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >论文阅读: YOLOv1

论文阅读: YOLOv1

作者头像
JNingWei
发布2018-09-27 14:51:27
1.4K0
发布2018-09-27 14:51:27
举报
文章被收录于专栏:JNing的专栏

Introduction

YOLOv1是one-stage detector鼻祖、real-time detector鼻祖。

所谓one-stage,即不需额外一个stage来生成RP,而是直接分类回归出output:

这里写图片描述
这里写图片描述

YOLOv1直接将整张图片分成 S×SS×SS\times S 的小格子区域,每个区域生成 BBB 个bbox(论文中B=2B=2B=2),每个bbox去预测中心点落在该格的物体。但是每个格子生成的所有BBB个bbox共享 一个分类score

这里写图片描述
这里写图片描述

因此,YOLOv1最后一层的输出是一个 S×S×(B∗5+C)S×S×(B∗5+C)S\times S \times (B * 5 + C) 的 tensor 。 其中,SSS为每维的格子段数,BBB为每格生成的bbox数,CCC为前景类别数。

YOLOv1=24×Conv+2×FCYOLOv1=24×Conv+2×FCYOLOv1 = 24\times Conv + 2\times FC:

这里写图片描述
这里写图片描述

Note

  • 经过权衡利弊,YOLOv1采用了山寨版的GoogleNet作为basemodel,而非VGG;
  • 在第24层时,每个单点对应原图的感受野达到了782×782782×782782\times 782。而原图只有448×448448×448448\times 448,覆盖了整张原图。也就意味着,到了第24层的时候,每个单点都能看到整张原图。更不要提第25、26层是两个fc操作了。
  • 另外,Fast YOLOv1=9×Conv+2×FCFast YOLOv1=9×Conv+2×FCFast\ YOLOv1 = 9\times Conv + 2\times FC。速度更快,但精度也略低。

Innovation

  • one-stage detector鼻祖、real-time detector鼻祖,里程碑级的贡献。
  • 从image pixel直达bbox cordination和class probability。
  • 设计得很有新意,直接输出每个bbox的cls和reg结果(同一条向量上),并把分为前景的bbox向量条打到图上。
  • 每个grid只负责一个物体。这样自然将候选框数量大幅砍削到了 S×S×BS×S×BS\times S\times B 。有效缓解了类别不平衡,却也放弃了对每个ground truth框的大量试错机会。

Result

YOLOv1最大的优点就是“快”,“灰常快”。YOLOv1的检测速度为 45 fps ;Fast YOLOv1甚至达到了 155 fps

这里写图片描述
这里写图片描述

不过作者自己也承认,精度方面还是和two-stage系中的state-of-the-art水平是有差距的:

这里写图片描述
这里写图片描述

但是,虽然整体检测精度(mAP)不如你Fast R-CNN,但是我对背景的检测精度比你高了一倍多啊:

这里写图片描述
这里写图片描述

然而这么比就有点不公平了。YOLOv1只生成少量候选框的机制,决定了遇到的背景框数量远少于Fast R-CNN,因此受到类别不平衡问题的影响更小,自然对背景框的检测精度就高啦。

Fast R-CNN + YOLOv1 的效果还比纯粹的Fast R-CNN高了2.3个点:

这里写图片描述
这里写图片描述

在各种实验的过程中,作者还惊喜地发现,YOLOv1在艺术图片上的泛化性能也是一大亮点:

这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

以下第一排就是各种艺术画:

这里写图片描述
这里写图片描述

拿艺术画的检测结果demo并放入论文中的做法,也是很有新意。

Thinking

  • 每个grid只负责一个物体。非常简单粗暴,这明显是对实际场景数据的观察得到的结果。 因为数据集中的大部分图片都是常规图片,分布有秩,大小合理。因此YOLOv1对于大部分常规图片检测是高效可行的。 但是小部分非常规图片(两个以上物体的中心位置落入同一个grid),直接就把YOLOv1的mAP值给拉低了。
  • 同时,由于YOLOv1只针对最后7x7的特征图进行分析,使得它对小目标的检测效果不佳。
  • YOLOv1在鱼 (检测速度) 与熊掌 (检测精度) 中选择了短平快的方式,突破two-stage的格局限制,创造出one-stage。虽然离最高mAP还略有差距,但是速度的暴涨,让real-time detection成为现实。这一点,YOLOv1功在千秋。
  • YOLOv1由于精度太差,而空有那么高的检测速度。因此在实际落地中,基本不用YOLOv1。甚至连对实时性要求极高的自动驾驶,也是使用的FPN(+Faster R-CNN)。

[1] You Only Look Once: Unified, Real-Time Object Detection [2] YOLO - Google Slides [3] 论文阅读笔记:You Only Look Once: Unified, Real-Time Object Detection

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018年04月20日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Introduction
  • Innovation
  • Result
  • Thinking
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档