前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >大语言模型高效训练基础知识:优化器AdamW和Adafator

大语言模型高效训练基础知识:优化器AdamW和Adafator

作者头像
Steve Wang
发布2023-10-12 09:38:40
1.4K0
发布2023-10-12 09:38:40
举报
文章被收录于专栏:从流域到海域

Prerequsite:Adam优化算法 Adam优化算法很长一段时间都是比较主流的参数更新算法,也有很多变种,本文介绍在大模型训练过程中使用的AdamW和Adafator

AdamW

原论文:Decoupled Weight Decay Regularization

AdamW指的是Adam + Weight Decay(权重衰减)。

Adam相信很多读者已经了解了,Weight Decay解释起来也比较容易,为了防止过拟合,在计算损失函数时需要增加L2正则项:

L(\theta_{new})=L(\theta_{old})+\gamma/2||\theta^2|| (公式1)

求导计算梯度时:

g_t \leftarrow \nabla f_t(\theta_{t-1}) + \gamma \theta_{t-1}(公式2)

Weight Decay即在正则项前面乘以

\gamma (0<\gamma<1)

,用来缩放正则项产生的影响:L2正则会使得参数趋近于0,Weight Decay减轻这种趋势

AdamW将Weight Decay应用在优化算法最后一步参数更新,参见下图(下图中的w等价于上面公式内的

\gamma

)。

图中紫色部分和绿色部分等价于公式2,紫色部分是原始的Adam应用Weight Decay的地方,绿色部分是AdamW应用Weight Decay的地方。

代码实现可以参见:理解AdamW

Adafator

原论文:Adafactor: Adaptive Learning Rates with Sublinear Memory Cost

Adafator没有像Adam那样保存权重矩阵每个元素的滑动平均值,而是保存了行维度或者是列维度的滑动平均值之和,这样显著降低了需要参数更新时需要的存储空间。

Adafator详细的计算方法如下图算法所示:

其中

R_t

C_t

表示行维度和列维度的梯度平方和,

m

表示行数,

n

表示列数,

1_n^{\top}R_t

表示列维度之和,可以使用

C_t1_m

即行维度之和等价替换。

这样存储需要的空间就从

nm

的倍数,变为

n+m

的倍数,节省了可观的存储空间。

注意:由于

\beta_1=0

,相当于去掉了Adam的Weight Decay。这导致相较于Adam算法,Adafator存在表现不稳定的缺陷,有时候能比Adam更快收敛,有时候则不能。

参考文献
  1. Optimizer
  2. 理解AdamW
  3. 权重衰减/权重衰退——weight_decay
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2023-07-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • AdamW
  • Adafator
  • 参考文献
相关产品与服务
对象存储
对象存储(Cloud Object Storage,COS)是由腾讯云推出的无目录层次结构、无数据格式限制,可容纳海量数据且支持 HTTP/HTTPS 协议访问的分布式存储服务。腾讯云 COS 的存储桶空间无容量上限,无需分区管理,适用于 CDN 数据分发、数据万象处理或大数据计算与分析的数据湖等多种场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档