首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Day036 Training Neural Networks(4)

Model Ensembles 模型整合

训练10个不同的模型,最后也在10个模型里test,将输出取平均。 可以减少overfitting, 提高表现。

snapshot 只训练一个模型也能达到很好的效果。

polyak averaging 是一个小技巧,但不是那么常见。

Regularization正则化

只关注训练集正确率是不够的。 当训练集的正确率远高于验证集的正确率时,说明出现了过拟合,需要加入正则化项。 之前课上提到的L2正则化在神经网络中并不是那么有效。

在神经网络中我们通常使用其他技巧。

一个很常见的是dropout :

随机将某些神经元设为0,drop的概率也是一个超参数,通常设为0.5。

什么地方设为0了?activation处 。

用在什么层?常见的是用在FC层,有时候也会用在卷积层。在卷积层,不是随机丢掉每个activation,而是随机的丢掉整个特征图。在卷积中,有channel dimension,你可能丢掉整个channel,而不是随机的elements。

在测试的时候 :

还有一种inverted dropout,就是在测试时不变。

第二种方法是数据增强,Data Augmentation

就是对图片进行一些处理 比如水平翻转,裁剪crop,scales,改变对比度,亮度,在RBG上进行PCA,旋转等等。

除此之外,还有 DropConnect

Fractional Max Pooling

Stochastic Depth

会叠加使用不同的regularization吗?

通常只用batch normalization。 只用它单独使用不行的时候,会加入dropout。

迁移学习 Transfer Learning

当数据集非常不同的时候,比如想要用ImageNet预训练的模型训练医学图像。就需要重新初始化大部分的网络。

找一些预训练模型的方法。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180309G06AZQ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券