前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >目标检测 | YOLOv1,经典单阶段Anchor-Free目标检测模型

目标检测 | YOLOv1,经典单阶段Anchor-Free目标检测模型

作者头像
Justlovesmile
发布2022-03-30 15:30:55
9340
发布2022-03-30 15:30:55
举报
文章被收录于专栏:云+分享云+分享

PS:参考YOLO官网的配色和logo做的封面图,感觉还挺好看的,hhhh

You Only Look Once: Unified, Real-Time Object Detection

论文发表:CVPR 2016 论文链接:You Only Look Once: Unified, Real-Time Object Detection (cv-foundation.org) 论文官网:YOLO: Real-Time Object Detection (pjreddie.com)

代码语言:javascript
复制
@inproceedings{redmon2016you,
  title={You only look once: Unified, real-time object detection},
  author={Redmon, Joseph and Divvala, Santosh and Girshick, Ross and Farhadi, Ali},
  booktitle={Proceedings of the IEEE conference on computer vision and pattern recognition},
  pages={779--788},
  year={2016}
}

1. 归纳总结

标签

目的

方法

总结

#Anchor-Free

解决两阶段算法检测慢的问题

将目标检测(cls和reg)都视为回归问题

经典单阶段算法

2. 问题背景

随着深度学习的大火,在YOLO提出那一年,主流的目标检测算法框架主要分为两类:

  • 两阶段算法:基于Region Proposal的RCNN系列算法,先生成Proposal,再分类回归
  • 单阶段算法:直接预测不同目标的类别和位置 这两种算法各有优点,一般而言,两阶段算法准确度高,但速度慢;单阶段算法速度快,但准确度相对低。

作者认为人可以一眼看到目标在哪,并且能立即知道是什么,并且对于很多实际场景而言,如自动驾驶,实时性和准确性都是非常重要的。

3. 主要工作

针对上述问题,作者提出了经典的YOLO算法,它是一个统一的,端到端的单阶段目标检测算法。YOLO具体做法是,首先将输入图片缩放到448x448,然后送入CNN网络,最后使用NMS过滤网络预测结果得到检测的目标。

而在CNN网络里,它首先将图片划分为S×S大小的网格,然后每个单元格负责检测中心点落在该格子的目标,如下图,每个单元格会输出B个边界框(每个边界框输出5个预测值:x, y, w, h, confidence)以及边界框类别概率C,例如:作者在PASCAL VOC的检测实验里使用S=7,B=2,C=类别数量20,一共预测7×7×(2×5+20)个向量。同时这里的confidence代表边界框置信度,它的定义为:

Pr(object)\times IoU_{pred}^{truth}

其中边界框包含目标时,Pr(object)=1,否则为0。而C代表每个类别的置信度,即:

Pr(Class_i|Object)\times Pr(objec) \times IoU_{pred}^{truth}=Pr(class_i)\times IoU_{pred}^{truth}

3.1 模型结构

YOLO采用卷积网络来提取特征,然后使用全连接层来得到预测值。网络结构参考GooLeNet模型,包含24个卷积层和2个全连接层。对于卷积层,主要使用1x1卷积来做channle reduction,然后紧跟3x3卷积。对于卷积层和全连接层,采用Leaky ReLU激活函数max(x,0.1x),但是最后一层却采用线性激活函数。

3.2 模型训练

在训练之前,先在ImageNet上进行了预训练,其预训练的分类模型采用图8中前20个卷积层,然后添加一个average-pool层和全连接层。预训练之后,在预训练得到的20层卷积层之上加上随机初始化的4个卷积层和2个全连接层。由于检测任务一般需要更高清的图片,所以将网络的输入从224x224增加到了448x448。

3.3 模型损失

Yolo算法将目标检测看成回归问题,所以采用的是均方差损失函数。但是对不同的部分采用了不同的权重值。首先区分定位误差和分类误差。对于定位误差,即边界框坐标预测误差,采用较大的权重 \lambda_{coord}=5 。然后其区分不包含目标的边界框与含有目标的边界框的置信度,对于前者,采用较小的权重值 \lambda_{noobj}=0.5 。其它权重值均设为1。然后采用均方误差,其同等对待大小不同的边界框,但是实际上较小的边界框的坐标误差应该要比较大的边界框要更敏感。为了保证这一点,将网络的边界框的宽与高预测改为对其平方根的预测,即预测值变为(x,y,\sqrt{w},\sqrt{h})

损失函数中,第一项为边界框中心坐标的误差项,\mathbb{1} _ {ij}^{obj} 是指第 i 个单元格存在目标,且该单元格中的第 j 个边界框负责预测该目标,第二项是边界框的高与宽的误差项。第三项是包含目标的边界框的置信度误差项。第四项是不包含目标的边界框的置信度误差项。最后一项是包含目标的单元格的分类误差项,\mathbb{1} _ {i}^{obj}值是指第 i 个单元格存在目标。

4. 实验结果

5. 参考文献

目标检测|YOLO原理与实现 - 知乎 (zhihu.com)

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • You Only Look Once: Unified, Real-Time Object Detection
    • 1. 归纳总结
      • 2. 问题背景
        • 3. 主要工作
          • 3.1 模型结构
          • 3.2 模型训练
          • 3.3 模型损失
        • 4. 实验结果
          • 5. 参考文献
          相关产品与服务
          图像识别
          腾讯云图像识别基于深度学习等人工智能技术,提供车辆,物体及场景等检测和识别服务, 已上线产品子功能包含车辆识别,商品识别,宠物识别,文件封识别等,更多功能接口敬请期待。
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档