版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:[https://blog.csdn.net/chaipp0607/article/details/102094625](https://blog.csdn.net/chaipp0607/article/details/102094625)
前言
Faster R-CNN,YOLO和SSD在通用目标检测领域有着奠基一般的作用, 而YOLOv2和YOLOv3由于其灵活易用的特性,在工业界一直很受欢迎,下面这篇文章主要想从损失函数的角度集中讨论下这几个主流框架的区别。
分类损失
分类在目标检测任务中的作用是确定一个目标到底应该属于哪个类别。
- Faster R-CNN
需要注意的是,这里的Faster R-CNN讨论的是RPN的损失,所以在分类损失中,Faster R-CNN的RPN用的是二值交叉熵,因为RPN分类是区分当前的区域是不是个目标的二分类问题。
- SSD,YOLO,YOLOv2
SSD,YOLO和YOLOv2都是one-stage的结构,没有区域建议,所以它们的分类损失是交叉熵,如果是针对VOC数据集,那么类别应该是20类,针对COCO数据集,类别是80类。
此外还有一个小区别是,SSD有背景类,比如COCO数据集上,SSD要区域81类。
- YOLOv3
YOLOv3大体上和YOLOv2其实没什么区别,在这里把YOLOv3单独摘出来,是因为它在分类损失上确实不使用softmax+交叉熵来做,而是使用n个二值交叉熵来做,比如在COCO上,使用一个80类的交叉熵是可以实现的,但是YOLOv3用了Logistic+二值交叉熵处理,将一个80分类问题转化为80个二分类问题。
回归损失
回归在目标检测任务中的作用是确定一个和Ground Truth重合度尽量高的边界框,即xxx,yyy,www和hhh。下面提到的区别包含了边界框的表示和损失函数,为了表达起来方便,我们把它拆成三个部分,分别是边界框的中心(x,y)(x,y)(x,y),边界框的尺寸(w,h)(w,h)(w,h)和损失函数LLL。
边界框的中心点
- Faster R-CNN和SSD
Faster R-CNN的RPN和SSD在处理边界框的中心点时采用的是相同的思路,并且它们都有Anchor,其实是SSD借鉴了RPN,最后一层特征图上的点决定了预设的中心点,RPN和SSD要预测的是Ground Truth对中心点的offset,并除Anchor的宽高后的结果,假设预设框为{dcx,dcy,dw,dh}\left {d^{cx},d^{cy},d^{w},d^{h}\right }{dcx,dcy,dw,dh},ground truth为{gcx,gcy,gw,gh}\left {g^{cx},g^{cy},g^{w},g^{h}\right }{gcx,gcy,gw,gh},从公式中可以看出来,{dcx,dcy}\left {d^{cx},d^{cy}\right }{dcx,dcy}和{gcx,gcy}\left {g^{cx},g^{cy}\right }{gcx,gcy}都表示中心点坐标。那么转换后的ground truth坐标{g^cx,g^cy}\left {\hat{g}^{cx},\hat{g}^{cy}\right }{g^cx,g^cy}依照下面方式求取:
g^cx=(gcx−dcx)dw\hat{g}^{cx}=\frac{\left (g^{cx}-d^{cx} \right )}{d^{w}}g^cx=dw(gcx−dcx)g^cy=(gcy−dcy)dh\hat{g}^{cy}=\frac{\left (g^{cy}-d^{cy} \right )}{d^{h}}g^cy=dh(gcy−dcy)
- YOLO,YOLOv2和YOLOv3
YOLO系列的结构中,YOLO是没有Anchor的,YOLO只有格子,YOLOv2和YOLOv3带Anchor,但是这并不影响它们边界框中心点的选择,它们的边界框中心都是在预测距离格子左上角点的offset,这一点和Faster R-CNN与SSD是不同的。
特别说明,上图来自《YOLO文章详细解读》
对于上图中蓝色框对应的格子(坐标为(xcol=1,yrow=4)(x_{col}=1,y_{row}=4)(xcol=1,yrow=4)),假设它预测的输出是红色框的bbox,设bbox的中心坐标为(xc,yc)(x_c,y_c)(xc,yc),那么最终预测出来的(x,y)(x,y)(x,y)是经过归一化处理的,表示的是中心相对于单元格的offset,计算公式如下。其中kkk是格子的数量,wimgw_{img}wimg和himgh_{img}himg是图片的宽高。
x=xcwimgk−xcolx= \frac{x_{c}}{w_{img}}k-x_{col}x=wimgxck−xcol
y=ychimgk−yrowy= \frac{y_{c}}{h_{img}}k-y_{row}y=himgyck−yrow
边界框的尺寸
- YOLO
在边界框尺寸这个方面,YOLO显得非常孤立,因为它是这5个结构中唯一无Anchor的,由于没有先验,所以YOLO在表达(w,h)(w,h)(w,h)时非常的简单粗暴,就是相对于整个图片的比例做了归一化。
w=wbwimgw= \frac{w_{b}}{w_{img}}w=wimgwbh=hbhimgh= \frac{h_{b}}{h_{img}}h=himghb
特别说明,上图来自《YOLO文章详细解读》
- Faster R-CNN,SSD,YOLOv2和YOLOv3
Faster R-CNN,SSD,YOLOv2和YOLOv3都带Anchor,所以它们对于(w,h)(w,h)(w,h)的处理是一致的,就是根据Anchor,用对数函数,对预测值和ground truth去重新编码。
下面是SSD中用Anchor编码的ground truth例子:假设预设框为{dcx,dcy,dw,dh}\left {d^{cx},d^{cy},d^{w},d^{h}\right }{dcx,dcy,dw,dh},ground truth为{gcx,gcy,gw,gh}\left {g^{cx},g^{cy},g^{w},g^{h}\right }{gcx,gcy,gw,gh},从公式中可以看出来。那么转换后的ground truth坐标{g^w,g^h}\left {\hat{g}^{w},\hat{g}^{h}\right }{g^w,g^h}依照下面方式求取:
g^w=loggwdw\hat{g}^{w}=log{\frac{g_{w}}{d^{w}}}g^w=logdwgwg^h=logghdh\hat{g}^{h}=log{\frac{g_{h}}{d^{h}}}g^h=logdhgh
这里使用的是logloglog,其实可以看做lnlnln。
在YOLOv2中这个形式会变一下,但是本质上是一样的,总结来看,根据边界框预测的4个offset{tx,ty,tw,th}\left { t_{x}, t_{y},t_{w},t_{h} \right }{tx,ty,tw,th},可以按照下列公式计算出ground truth在特征图上的相对值{bx,by,bw,bh}\left { b_{x}, b_{y},b_{w},b_{h} \right }{bx,by,bw,bh}。
bw=pwetwb_{w}= p_{w}e^{t_{w}}bw=pwetwbh=phethb_{h}= p_{h}e^{t_{h}}bh=pheth
上式中把pwp_{w}pw除过来,然后两边取对数,就和SSD一样了。
所以这就是为什么Faster R-CNN,SSD,YOLOv2和YOLOv3中都有log,就是为了根据Anchor对预测值和ground truth去重新编码。
损失函数
- Faster R-CNN和SSD
SSD可以说在边界框回归问题上完全参考RPN,包括损失函数,所以它们都用smooth L1损失。
- YOLO,YOLOv2和YOLOv3
YOLO系列在边界框回归损失上用的是L2,并没有参考RPN。
其他损失
最后就是除了分类损失和回归损失外的其他损失函数,主要是起到辅助作用。
- Faster R-CNN和SSD
PRN和SSD是没有其他损失函数的,因为RPN只有两类,其中包含了负类,SSD的类别中也包含背景类。
- YOLO,YOLOv2和YOLOv3
YOLO系列在最后的类别输出上是不包含背景类的,所以它在输出上加上了一个confidence,所以YOLO系列处理基础的分类损失和回归损失外,还需要有一个confidence损失,去评价当前的区域是object还是no object。