首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Nous Research 提出高效计算法 YaRN,可扩展大模型上下文窗口

据品玩 9 月 5 日报道,Nous Research 联手 EleutherAI 实验室以及瑞士日内瓦大学的研究者发表论文,公布了一项名为 YaRN 的方法,可扩展大模型上下文窗口。论文显示,和传统方法相比,YaRN 需要更少的标记和训练步骤。利用这种方法,LLaMA 模型可以有效地利用和外推到比其原始预训练所允许的上下文长度更长的上下文,同时超过了过去窗口扩展的最新技术水平。据 GitHub 页面显示,使用 YaRN 进行微调的 LLaMA 2 7B/13B 上下文窗口分别可达到 64k 和 128k。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OMxYdf0d8ivOWNGxjc-HkJ0g0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券