首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

新算法 | 基于DIou改进的YOLOv3目标检测

新框架 作者定义了本文提出的基于DIoU、CIoU损失函数如下: ? 其中 ? 表示预测框 ? 和 ? 间的惩罚项。 Distance-IoU Loss ?...基于此,作者提出了Complete-IoU Loss。其损失函数定义如下: ? 上述损失函数为CIoU的损失,通过公式可以很直观的看出,CIoU比DIoU多出了 ? 和 ? 这两个参数。...最后,CIoU loss的梯度类似于DIoU loss,但还要考虑 ? 的梯度。w,h取值范围[0,1]的情况下, ? 的值通常很小,会导致梯度爆炸,因此在实现时将 ? 替换成1。...基于IoU指标,在SSD-FPN上进行实验对比,因为本身模型已经精度很好了,DIoU lossCIoU的效果不是很显著,但仍有提升。...总结 论文提出了两种新的IoU-based损失函数,DIoU lossCIoU loss:DIoU loss最小化bbox间的中心点距离,从而使得函数快速收敛;CIoU loss则在DIoU loss

1.7K20

类别不均衡问题之loss大集合:focal loss, GHM loss, dice loss 等等

最近在工作中也是碰到这个问题,花了些时间梳理并实践了类别不均衡问题的解决方式,主要实践了“魔改”loss(focal loss, GHM loss, dice loss 等),整理如下。...因此,就集中看下重加权 loss 改进的部分。 2. 模型层面的重加权 重加权主要指的是在 loss 计算阶段,通过设计 loss,调整类别的权值对 loss 的贡献。...比较经典的 loss 改进应该是 Focal Loss, GHM Loss, Dice Loss。...在交叉熵 loss 基础上,当正样本预测值  大于 0.5 时,需要给它的 loss 一个小的权重值 ,使其对总 loss 影响小,反之正样本预测值  小于 0.5,给它的 loss 一个大的权重值。...& DSC Loss Dice Loss 是来自文章 V-Net 提出的,DSC Loss 是香侬科技的 Dice Loss for Data-imbalanced NLP Tasks。

3K30

基于DIou改进的YOLOv3目标检测

基于此,作者提出了Complete-IoU Loss。其损失函数定义如下: 上述损失函数为CIoU的损失,通过公式可以很直观的看出,CIoU比DIoU多出了 和 这两个参数。...由 定义可以看出来,损失函数会更加倾向于往重叠区域增多方向优化: 最后,CIoU loss的梯度类似于DIoU loss,但还要考虑 的梯度。...实验结果 在YOLOv3上进行实验对比,DIoU lossCIoU的效果都很显著,mAP分别提升3.29%和5.67%,而AP75则分别提升6.40%和8.43%,而使用DIoU-NMS则能进一步提升...上图对GIoU和CIoU的结果进行了可视化,可以看到,在中大型物体检测上,CIoU的结果比GIoU要准确。...总结 论文提出了两种新的IoU-based损失函数,DIoU lossCIoU loss:DIoU loss最小化bbox间的中心点距离,从而使得函数快速收敛;CIoU loss则在DIoU loss

47710

Contrastive Loss(对比损失)Contrastive Loss

Contrastive Loss 在传统的siamese network中一般使用Contrastive Loss作为损失函数,这种损失函数可以有效的处理孪生神经网络中的paired data的关系。...siamese network-孪生神经网络 contrastive loss的表达式如下: ?...# tensorflow伪代码 def contrastive_loss(self, y,d,batch_size): tmp= y *tf.square(d) #tmp= tf.mul...观察上述的contrastive loss的表达式可以发现,这种损失函数可以很好的表达成对样本的匹配程度,也能够很好用于训练提取特征的模型。当y=1(即样本相似)时,损失函数只剩下 ?...与欧式距离之间的关系,因为欧式距离越大与"两个文本相似"这个事实事与愿违,那么我们就对它们惩罚越大(即loss越大)。

3.9K40

AAAI 2020 | DIoU和CIoU:IoU在目标检测中的正确打开方式

CIoU loss,以及建议使用DIoU-NMS替换经典的NMS方法,充分地利用IoU的特性进行优化。...另外,论文考虑bbox的三要素,重叠区域,中心点距离和长宽比,进一步提出了Complete IoU(CIoU) loss,收敛更快,效果更好。...2、Complete IoU loss 论文考虑到bbox回归三要素中的长宽比还没被考虑到计算中,因此,进一步在DIoU的基础上提出了CIoU。...最后,CIoU loss的梯度类似于DIoU loss,但还要考虑的梯度。在长宽在的情况下,的值通常很小,会导致梯度爆炸,因此在实现时将替换成1。...五、总结 论文提出了两种新的IoU-based损失函数,DIoU lossCIoU loss:DIoU loss最小化bbox间的中心点距离,从而使得函数快速收敛;CIoU loss则在DIoU loss

2.8K30

AAAI 2020 | DIoU和CIoU:IoU在目标检测中的正确打开方式

论文提出了IoU-based的DIoU lossCIoU loss,以及建议使用DIoU-NMS替换经典的NMS方法,充分地利用IoU的特性进行优化。...另外,论文考虑bbox的三要素,重叠区域,中心点距离和长宽比,进一步提出了Complete IoU(CIoU) loss,收敛更快,效果更好 Analysis to IoU and GIoU Losses...VOC [1240]   在SSD-FPN上进行实验对比,因为本身模型已经精度很好了,DIoU lossCIoU的效果不是很显著,但仍有提升。...如图9所示,DIoU-NMS的整体性能都比原生的NMS效果要好 Conclusion ***   论文提出了两种新的IoU-based损失函数,DIoU lossCIoU loss:DIoU loss...最小化bbox间的中心点距离,从而使得函数快速收敛;CIoU loss则在DIoU loss的基础上加入长宽比的考量,能够进一步地快速收敛和提升性能。

3.8K00

目标检测算法之AAAI 2020 DIoU Loss 已开源(YOLOV3涨近3个点)

CIoU Loss 为了回答第二个问题,作者提出了Complete-IoU Loss。一个好的目标框回归损失应该考虑三个重要的几何因素:重叠面积,中心点距离,长宽比。...基于这一点,论文提出了CIoU Loss。 ? 从上面的损失可以看到,CIoU比DIoU多了和这两个参数。其中是用来平衡比例的系数,是用来衡量Anchor框和目标框之间的比例一致性。...CIoU类似。 实验结论 Table1给出了分别在YOLOv3上使用IoU Loss,GIoU Loss,DIoU Loss, CIoU Loss获得的AP值。...可以看到CIoU Loss涨了快3个点,证明了这种Loss的有效性。遗憾的是论文没有给出其他的对比数据了,究竟有没有用欢迎大家去试,个人认为这种带有工程性Trick的论文是最值得去尝试的。 ?...和CIoU Loss就介绍到这里了,希望对大家目标检测升点有帮助。

5.9K21

Loss Function

^{\frac {1}{p}} = \max(|x_1-y_1|,…,|x_n-y_n|) 损失函数 0 - 1 损失函数 gold standard image.png 对数损失函数 Log Loss...cross entropy error image.png 对 LR 而言, 把它的条件概率分布方程 image.png 带入上式, 即可得到 LR 的对数损失函数 平方损失函数 Square Loss...image.png 其中 $$Y-f(X)$$ 表示残差, 整个式子表示残差平方和, Residual Sum of Squares 指数损失函数 Exponential Loss image.png...与比平方损失相比,它对 outlier 更加不敏感 对于回归问题 image.png 其中 $$|a|=y-f(x)$$ 对分类问题 image.png 下图是 huber loss(绿色)与平方损失...以 w∈R2w\in \mathbb R^2w∈R​2​​ 为例,椭圆形是 loss 的损失等高线,灰色区域是约束区域,等高线与约束区域相交的地方,就是最优解。

1.7K40

Hinge loss

原文链接:Hinge loss Hinge loss 在机器学习中,hinge loss常作为分类器训练时的损失函数。hinge loss用于“最大间隔”分类,特别是针对于支持向量机(SVM)。...,hinge loss的结果为L(y)=0,但是当出现错误的分类是,hinge loss的L(y)与y呈线性关系(一个线性误差)。...扩展 当然有时二分类的SVM通常会以一对一或者一对多的形式扩展到多分类的任务,为了实现这个目的,也可以扩展hinge loss函数。现在已经有多种hinge loss的不同的变化形式。...优化 hinge loss是一个凸函数,所以,很多在机器学习中涉及到的凸优化方法同样适用于hinge loss。它是不可微的(不连续啊),但是对于线性SVM( ?...上图中为hinge loss(蓝)和0/1损失(绿)。注意,hinge loss函数惩罚了ty<1(也就是说在ty<1的时候有loss不为0),这个特点和SVM中的分类间隔的概念是相对应的。

1.9K90
领券