前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >陈丹琦团队提出低内存高效零阶优化器MeZO,单卡A100可训练300亿参数模型

陈丹琦团队提出低内存高效零阶优化器MeZO,单卡A100可训练300亿参数模型

作者头像
zenRRan
发布2023-08-22 14:13:40
3040
发布2023-08-22 14:13:40
举报
文章被收录于专栏:深度学习自然语言处理
深度学习自然语言处理 原创 作者:辰宜

今天下午突然发现了一篇陈丹琦大佬的巨作~ 大家一起来简单瞅瞅。

本文旨在介绍一种用于fine-tuning语言模型(LM)的低内存优化器——MeZO,内存减少多达12倍。使用单个A100 80G GPU,MeZO可以训练一个300亿参数的模型。

论文:Fine-Tuning Language Models with Just Forward Passes 地址:https://arxiv.org/abs/2305.17333 代码:https://github.com/princeton-nlp/MeZO

过去的方法存在的问题,用于优化大型LM的反向传播算法需要大量的内存,因此需要一种低内存优化器。

本文提出的MeZO算法是一种低内存零阶优化器,通过SPSA算法来计算梯度估计,仅需要两次前向传递。MeZO算法可以在不影响LM性能的情况下,大幅减少内存占用,优化各种模型和下游任务。

图 1:OPT-13B 使用零样本、上下文学习 (ICL)、MeZO和 Adam (FT) 微调的结果

方法与实验

本文的MeZO算法是基于零阶优化的理论基础。

MeZO伪代码

MeZO算法基于SPSA算法的低内存优化器,通过同时扰动每个权重矩阵来节省计算时间,并且可以与其他梯度优化器结合使用,例如SGD with momentum和Adam。

其在各种模型和下游任务中表现出色,相比于Adam的完全fine-tuning,性能相当,并大幅降低了内存成本。MeZO还可以优化非可微分目标,并且适用于全参数调整和前缀调整。

下面看下所有的实验情况:

在RoBERTa-large上的实验

OPT-13B上的实验(有1000个例子)

OPT-30B和OPT-66B上的实验(有1000个例子)

具有不可微分目标的 MeZO

MultiRC上不同OPT模型和调优方法的GPU内存消耗

可以使用特定硬件和算法进行调整的最大 OPT 模型

做个总结

最后总结下本文的所有内容:

  1. MeZO算法可以极大的减少内存的使用,并不影响LM性能。
  2. 用零阶优化理论可以优化具有高维参数的大型LM。
  3. 基于全局和局部有效秩,可以证明零阶随机梯度下降的收敛速度,以及全局收敛速度会因有效秩而变慢。
  4. 接下来需要将MeZO和其他低内存方法相结合,并研究MeZO在其他领域(如精简和数据集选择)中的适用性。

这可是个大创新,又向人人都能训练大模型迈进一大步,好开心~

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-05-30,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 深度学习自然语言处理 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 方法与实验
  • 做个总结
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档