深度学习: smooth L1 loss 计算

RPN的目标函数是分类和回归损失的和,分类采用 交叉熵,回归采用稳定的 Smooth L1

SmoothL1公式 为:

整体损失函数 具体为:


[1] Faster R-CNN原理介绍 [2] 深度网络中softmax_loss、Smooth L1 loss计算以及反向传播推导

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏用户画像

决策树

版权声明:本文为博主-姜兴琪原创文章,未经博主允许不得转载。 https://blog.csdn.net/jxq0816/article/details...

1233
来自专栏小鹏的专栏

机器学习模型训练时候tricks

1. 当训练集的效果(准确率)上不去,和贝叶斯估计(人的表现)存在一定差距的时候:(1)增加模型的复杂度。 或者直接多加几层。(2)现在目前效果非常好的一些模型...

2117
来自专栏机器学习算法工程师

深入浅出解读卷积神经网络

作者:石文华 编辑:田 旭 卷积神经网络 ? 图1 全连接神经网络结构图 ? 图2 卷积神经网络结构图 卷积神经网络和全连接的神经网络结构上的差异还是比较大的,...

2804
来自专栏程序生活

Contrastive Loss(对比损失)Contrastive Loss

3154
来自专栏杂七杂八

matlab自助法实现

方法:以bootstrap sampling为基础,给定包含m个样本的数据集,我们对它进行采样产生数据集D’:每次随机从D中挑选一个样本,将其拷贝放入D’,然后...

4575
来自专栏机器学习、深度学习

统计学习导论 Chapter4--Classification

Book: An Introduction to Statistical Learning with Appli...

2096
来自专栏机器学习、深度学习

快速多尺度人脸检测--Multi-Scale Fully Convolutional Network for Fast Face Detection

Multi-Scale Fully Convolutional Network for Fast Face Detection BMVC 2016 如何能够...

2815
来自专栏数值分析与有限元编程

矩阵方程

对于矩阵 A(n,n) 和 B(n,m) 组成的矩阵方程 [A][X] = [B] 记 X(n,m) 的第i列向量为 Xi(i = 1,2...m), 矩阵B的...

3018
来自专栏null的专栏

优化算法——OWL-QN

一、正则化(Regularization) 1、正则化的作用     在机器学习中,正则化是相对于过拟合出现的一种特征选择的方法。在机器学习算法中使用的Loss...

5767
来自专栏机器学习、深度学习

快速多尺度人脸检测2--Multi-Scale Fully Convolutional Network for Face Detection in the Wild

Multi-Scale Fully Convolutional Network for Face Detection in the Wild CVPRW20...

2868

扫码关注云+社区

领取腾讯云代金券