首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

UC 伯克利研究人员提出新 AI 技术 RingAttention,可降低 Transformer 内存需求

据站长之家报道,UC 伯克利研究人员提出了一项名为 RingAttention 的新方法,以解决深度学习模型中内存需求的挑战。在最新的研究中,研究人员探讨了 Transformer 模型在处理长序列时面临的问题,特别是由于自注意力机制引发的内存需求。RingAttention 通过将自注意力和前馈网络计算块块地分布在多个设备上,实现了内存高效,允许训练超过 500 倍长度的序列。

研究人员的实验证明,RingAttention 可以将 Transformer 模型的内存需求降低,使其能够训练比以前的内存高效方法长 500 倍以上的序列,而不需要对注意力机制进行近似。此外,RingAttention 还允许处理长度超过 1 亿的序列,为处理大规模数据提供了可能性。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OgB2qPmgAuqsbV4ITV6pn26A0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券