首页
学习
活动
专区
工具
TVP
发布

Andrej Karpathy提到的神经网络六大坑

最近,李飞飞老师得意门生Andrej Karpathy大神在推特上连发几条twitter,细数了六种神经网络研究中的常见错误。

下面我总结一下我学习过程中遇到下面6条中的4条。

1

you didn't try to overfit a single batch first

正确解释@张楠 这句话是说在用大数据集训练之前先用小数据集试一下,排除一些明显的错误。

之前的我误解的解释如下:

没有先试过所有训练数据作为一个大batch训练,我们都知道,在训练神经网络的过程中,对于数据会有三个方法处理,一个是min-batch,一个是SGD,一个是Andrej Karpathy提到的所有数据作为一个batch。虽然将所有训练数据作为一个大batch训练能够保证梯度是往正确的方向移动,但是我们绝大部分都是min-batch,然后调节其中的batch-size这个超参数,我个人也没有尝试过将所有训练数据作为一个大batch训练,之后可以试试。(这里额外说一句,batch-size是很重要的超参数,需要仔细调节)

2

train(),eval()模式混用

you forgot to toggle train/eval mode for the net

忘了为网络切换训练/评估模式

这个理由主要是针对model 在训练时和评价时不同的 Batch Normalization 和 Dropout 方法模式。

3

忘掉设置.zero_grad()

you forgot to .zero_grad()(in pytorch) before .backward()

忘了在.backward()之前.zero_grad()(在pytorch中)

这个错误我真正碰到过,忘记了写.zero_grad()各种nan,导致结果非常差,最后找了一天才找到。大家可以在实在找不到原因的是,打印梯度出来看看,是不是有某些层参数为0,几乎没有学习,有些为nan了,去逐步找原因。

4

误传参数

you passed softmaxedouputs to a loss that expects raw logits

将softmaxed输出传递给损失函数,本来期望是logits值,而不是过了softmax之后的值。

大白话讲就是给函数传进去的参数错啦!!我们在编写代码的时候很容易犯这种错误,因为最后run起来的时候,它不报错啊,哥,不报错,只是结果很差,这很难受啊,我们很难发现错误,第一感觉,我去,idea不work,所以大家效果不好的时候,不要放弃啊,仔细看看有没有常见的bug!!

5

BatchNorm的坑

使用BatchNorm时,您没有对线性/ 二维卷积层使用bias = False,或者反过来忘记将其包含在输出层中。 这个倒不会让你失败,但它们是虚假的参数

答案来自@陈明jian

如果卷积层后面跟着BatchNormalization的话,卷积层就不需要偏置参数b,只需要w参数。

6

误用view操作

以为view()和permute()是一样的事情(不正确地使用view)

答案来自@深度学习修汽车

举例说明:比如要将一个(2, 12)的tensor改为(4, 2, 3)的tensor。这样就不能直接用view而需要多次用permute()来交换axis(转置2D的matrix)来达到目的。

大家可以在留言区踊跃讨论自己在深度学习中遇到的坑,讨论成长最快。

PS:不开赞赏,希望大家看后随手点赞、点广告,支持我们,谢谢大家。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180707B00MDB00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券