首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

代码论文全开源!月之暗面发布重磅技术报告:模型训练效率翻倍

月之暗面最新技术报告 —— 《Muon is Scalable for LLM Training》! 推出了一个全新的优化器 Muon,并基于此训练出了 3B/16B 参数的混合专家模型 (MoE)——Moonlight。这个 Moonlight 不是普通的模型,它在训练效率上实现了200% 倍提升,并且一举突破了现有大语言模型的性能边界

我们都知道,训练大型语言模型 (LLM) 就像一场“烧钱”大战,计算资源和时间都是巨大的挑战。而优化器,就如同这场战役中的“兵法”,直接决定了训练的效率和模型的最终效果。

一直以来,AdamW都是大家训练 LLM 的标配。但是,月之暗面团队这次带来的Muon 优化器,却展现出了更强大的潜力!

简单来说,Muon 优化器基于矩阵正交化,这是一种听起来有点高深的技术。但你可以把它想象成,Muon 在更新模型参数的时候,会让参数矩阵的各个方向都“雨露均沾”,避免模型只沿着少数几个“主导方向”学习,从而提升学习效率和模型的泛化能力。

Muon 的两大“神技”:

之前的研究表明,Muon 在小规模模型上表现出色,但能否扩展到更大规模的模型,一直是个未知数。经过深入研究,研究人员发现了Muon 扩展的关键秘诀,主要有两点:

1.加入权重衰减 (Weight Decay):就像给模型训练加上了“刹车”,防止模型参数过度膨胀,保持训练的稳定性和模型的泛化能力

2.精细调整参数更新尺度:针对不同形状的参数矩阵,智能调整更新幅度,确保更新的“力度”恰到好处,避免“用力过猛”或“力不从心”

Muon 优化器还自带三大 BUFF 加成:

效率 BUFF:对比 AdamW,计算效率直接翻倍

丝滑 BUFF:无需繁琐的超参数调整,AdamW 用户可以无缝切换到 Muon

性能 BUFF:内存和通讯效率都大幅提升,分布式训练更轻松

实验数据说话:Muon 效率提升

为了验证 Muon 的实力,团队进行了大量的实验,包括大规模的Scaling Law (扩展定律) 实验。结果令人震惊:

计算效率暴涨:在计算量最优的训练条件下,Muon 的计算效率是 AdamW 的 2 倍!这意味着,用 Muon 训练模型,可以用一半的计算资源达到 AdamW 相同的效果!

性能更上一层楼:基于 Muon 优化器训练的Moonlight 模型,在MMLU 基准测试 上表现出色,大幅超越了同等规模的其他模型,真正做到了“少花钱,多办事”!

突破 Pareto 前沿:Moonlight 模型成功突破了 MMLU 性能的 Pareto 前沿,这意味着,在性能和计算成本之间,Moonlight 找到了更优的平衡点

写在最后

月之暗面开源了所有成果!

代码 & 实现:

https://github.com/MoonshotAI/Moonlight

技术报告 Paper:

⭐星标AI寒武纪,好内容不错过⭐

用你的赞和在看告诉我~

求赞

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O0zcsOGatQuhqEsiBjOTKl2A0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券