首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

微软、清华和中国科学院大学共同推出专为大语言模型设计的 BitNet 架构

据品玩 10 月 19 日报道,Arxiv 页面显示,微软研究院联手中国科学院大学、清华大学共同发布论文,公布了一款可扩展且稳定的 1 位 Transformer 架构 BitNet 架构。BitNet 专为大语言模型设计。研究团队表示,为了训练 1 位权重,团队引入了 BitLinear 作为 nn.Linear 层的替代品。实验结果显示,BitNet 在语言建模任务上实现了竞争力的性能,同时显著减少了内存占用和能源消耗。

此外,BitNet 呈现出与全精度 Transformer 类似的扩展定律,表明它有潜力在保持效率和性能优势的同时,扩展到更大的语言模型。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OzNUpA57e92V-URTAwJwB9uA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券