首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

新的正则化神器:DropBlock(Tensorflow实践)

模型鲁棒性有明显提升 ------ 十月份天气凉爽的时候,网上出现了一篇挺有意思的文章:https://arxiv.org/pdf/1810.12890.pdf Google Brain提出了一种新的正则化方法:DropBlock...feature map的像素点(图b),但实际上我们的语义信息是完整、连续的,我们更希望其mask能够彻底block到某一块语义信息,从而提升其他部分的信息权重,实现模型正则约束泛化(图c),这样就诞生了 DropBlock...(tf.keras.layers.Layer): def __init__(self, keep_prob, block_size, **kwargs): super(DropBlock...import DropBlock tf.enable_eager_execution() # only support `channels_last` data format a = tf.ones...([2, 10, 10, 3]) drop_block = DropBlock(keep_prob=0.8, block_size=3) b = drop_block(a, training=True

4.2K72
您找到你想要的搜索结果了吗?
是的
没有找到

NIPS 2018 | Quoc Le提出卷积网络专属正则化方法DropBlock

本论文介绍了一种 dropout 的结构化形式 DropBlock,对于正则化卷积网络格外有效。在 DropBlock 中,同一模块中的特征会被一起丢弃,即特征图的相邻区域也被丢弃了。...在 COCO 检测任务上,DropBlock 将 RetinaNet 的 AP 从 36.8% 提升到 38.4%。 DropBlock 是类似 dropout 的简单方法。...二者的主要区别在于 DropBlock 丢弃层特征图的相邻区域,而不是丢弃单独的随机单元。Algorithm 1 展示了 DropBlock 的伪代码。...当 block_size = 1 时,DropBlock 类似 dropout,当 block_size 覆盖完整特征图的时候,DropBlock 类似 SpatialDropout。...Scheduled DropBlock。我们发现具备固定 keep_prob 的 DropBlock 在训练过程中表现不好。最初 keep_prob 的值过小会影响模型的学习。

47620

Dropout也能自动化了,谷歌Quoc Le等人利用强化学习自动找寻模型专用Dropout

Ghiasi 等人(2018)提出的 DropBlock 丢弃卷积层中的相邻神经元方块(按块丢弃)。...虽然 DropBlock 在 ResNet-50 和 AmoebaNet 架构中表现良好,但它并未被证实在 EfficientNet 和 EfficientDet 等更近期架构中实现成功应用。...在 CIFAR-10 数据集上,WRN-28-10 模型使用 AutoDropout 得到的准确率比使用 DropBlock 高出 0.6%,相当于误差减少了 16%。...需要注意的是,在该数据集上,与未使用任何正则化的模型相比,DropBlock 并没有出现显著提升,这表明丢弃邻近区域块的想法存在不足。...提升程度要高于 DropBlock 在 AmoebaNet 中提升的 0.5%,而且 EfficientNet 基线的准确率要高于 AmoebaNet。 ?

35210

YOLO V4论文解读

Selection of architecture (网络结构的选择) 六、Additional improvements 七、细节 1、 Mosaic data augmentation(马赛克数据增强) 2、 DropBlock...hide-and-seek、grid mask:随机的或者是均匀的选择图像中的多个矩形区域,并将其全部替换成0 feature map: (在特征图上做增强) DropOut/DropConnect和DropBlock...GloU_ loss 3、DIoU_ loss 4、CIoU_ loss(yolov4采用的) Yolov4-use: 1、CutMix and Mosaic data augmentation. 2、DropBlock...马赛克数据增强:每张图片做四个类别,每个类别根据图像所占的面积大小进行分配标签概率 2、 DropBlock regularization ?...Dropout:(b)图中的“x”,代表的是扔掉的像素,就是没有激活的像素,但是网络还是会从dropout掉的激活单元附近学习到同样的信息的 Dropblock:如(c)图,把整块信息dropout掉,

80130

Dropout也能自动化了,谷歌Quoc Le等人利用强化学习自动找寻模型专用Dropout

Ghiasi 等人(2018)提出的 DropBlock 丢弃卷积层中的相邻神经元方块(按块丢弃)。...虽然 DropBlock 在 ResNet-50 和 AmoebaNet 架构中表现良好,但它并未被证实在 EfficientNet 和 EfficientDet 等更近期架构中实现成功应用。...在 CIFAR-10 数据集上,WRN-28-10 模型使用 AutoDropout 得到的准确率比使用 DropBlock 高出 0.6%,相当于误差减少了 16%。...需要注意的是,在该数据集上,与未使用任何正则化的模型相比,DropBlock 并没有出现显著提升,这表明丢弃邻近区域块的想法存在不足。...提升程度要高于 DropBlock 在 AmoebaNet 中提升的 0.5%,而且 EfficientNet 基线的准确率要高于 AmoebaNet。 ?

40130

想读懂YOLOV4,你需要先了解下列技术(一)

10、特征增强相关-DropBlock 论文题目:DropBlock: A regularization method for convolutional networks 论文地址:https://arxiv.org.../abs/1810.12890 开源代码:https://github.com/miguelvr/dropblock 由于dropBlock其实是dropout在卷积层上的推广,故很有必须先说明下...dropblock有三个比较重要的参数,一个是block_size,用来控制进行归零的block大小;一个是γ,用来控制每个卷积结果中,到底有多少个channel要进行dropblock;最后一个是keep_prob...DropBlock in ResNet-50 DropBlock加在哪?最佳的DropBlock配置是block_size=7,在group3和group4上都用。...将DropBlock用在skip connection比直接用在卷积层后要好,具体咋用,可以看代码。

79550

目标检测系列之五(YOLO V4)

freebies Bag of freebies 就是只改变训练策略,增加训练开销,但是不增加推理测试的开销获得更好的精度,称为“免费赠品”,用到的改进有数据增强(光度畸变、几何畸变、Cutmix)、正则项(DropBlock...augmentation数据增强: CutOut, MixUp, CutMix Regularization method正则化方法: DropOut, DropPath, Spatial DropOut, or DropBlock...而在正则化方法中,DropBlock的效果是最优的。对于归一化方法的选择,由于需要单卡训练,因此不考虑SyncBN。...2)Neck颈部:SPP,PAN 3)Head头部:YOLOv3 总体来看,YOLO v4使用了如下结构: 主干网络的BoF(Bag of Freebies):CutMix和Mosaic数据增强, DropBlock...CSPNet), Multiinput weighted residual connections(MiWRC) 目标检测端的BoF(Bag of Freebies):CIoU-loss, CmBN, DropBlock

1.4K10

PPYOLO:2020不容错过的目标检测调参Tricks

能让训练更加稳定,我们将batchsize从64调整到196,并适当调节训练策略以及学习率 3.2.2 滑动平均 类似于BN里的滑动平均,我们在训练参数更新上也做了滑动平均策略 λ这里取0.9998 3.2.3 DropBlock...DropBlock也是谷歌提的一个涨点神器,但是适用范围不大。...作者发现给BackBone直接加DropBlock会带来精度下降,于是只在检测头部分添加。...关于DropBlock可以看我们写的这篇文章:【科普】神经网络中的随机失活方法 3.2.4 IOU Loss 在yolov3中使用的是smooth L1 Loss来对检测框做一个回归,但这个Loss并不适合以...我们通过增加了DCN卷积,将mAP提高到39.1%,增加的参数仍远远小于原始yolo3 4.2 B->C 基础模型搭建好后,我们尝试优化训练策略 选用的是更大的batch和EMA,并且加入DropBlock

2.6K40

Dropout也能自动化了,谷歌大神Quoc Le等人利用强化学习自动找寻模型专用Dropout

Ghiasi 等人(2018)提出的 DropBlock 丢弃卷积层中的相邻神经元方块(按块丢弃)。...虽然 DropBlock 在 ResNet-50 和 AmoebaNet 架构中表现良好,但它并未被证实在 EfficientNet 和 EfficientDet 等更近期架构中实现成功应用。...在 CIFAR-10 数据集上,WRN-28-10 模型使用 AutoDropout 得到的准确率比使用 DropBlock 高出 0.6%,相当于误差减少了 16%。...需要注意的是,在该数据集上,与未使用任何正则化的模型相比,DropBlock 并没有出现显著提升,这表明丢弃邻近区域块的想法存在不足。...提升程度要高于 DropBlock 在 AmoebaNet 中提升的 0.5%,而且 EfficientNet 基线的准确率要高于 AmoebaNet。 ?

36610

知识精讲 | Yolov3和Yolov4核心内容、代码梳理

(3)Dropblock Yolov4中使用的Dropblock,其实和常见网络中的Dropout功能类似,也是缓解过拟合的一种正则化方式。...而Dropblock和Dropout相似,比如下图: 中间Dropout的方式会随机的删减丢弃一些信息,但Dropblock的研究者认为,卷积层对于这种随机丢弃并不敏感,因为卷积层通常是三层连用:卷积+...所以右图Dropblock的研究者则干脆整个局部区域进行删减丢弃。...Dropblock的研究者与Cutout进行对比验证时,发现有几个特点: 优点一:Dropblock的效果优于Cutout 优点二:Cutout只能作用于输入层,而Dropblock则是将Cutout应用到网络中的每一个特征图上...Yolov4中直接采用了更优的Dropblock,对网络的正则化过程进行了全面的升级改进。

1.7K50

扫码

添加站长 进交流群

领取专属 10元无门槛券

手把手带您无忧上云

扫码加入开发者社群

相关资讯

热门标签

活动推荐

    运营活动

    活动名称
    广告关闭
    领券