, 每个样本有三个特征,,分别是身高,体重,年龄,那么我做归一化的时候,就是对体重做归一化,对身高做归一化,对年龄做归一化,三者之间不会有交叉影响。...,而这么做往往都忽略了模型中的一些小的模块的作用,例如Normalization,在CTR相关的结构中我们发现,大家经常会把BatchNorm放在最后的MLP层, 但是这么做够吗?...NormDNN
在不同的地方使用不同形式的Normalization策略会带来什么样的影响呢?...从上面的实验中,我们发现,在MLP层以及特征Embedding层都加入Normalization都是比单个加入都有效的,在MLP侧加入VO-LN的Normalization往往能取得更好的效果;
Normalization...相关的处理; Categorical Feature使用BatchNorm相关的处理; 在MLP部分使用VO-LN
泛化到其他Deep相关的模型
?