首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

真 开源! 史上第一个100%开源的AI大模型:OLMo!公布了代码!数据集!训练全过程!

AI大语言模型的意义不言而喻!如今它的商业价值不断提升,最强大的模型(对说的就是你,openAI)也变得越来越封闭。隐藏在API后面的训练数据、架构和开发细节不为人知。

鉴于开源精神,还有对于不透明带来的风险担忧,艾伦人工智能研究所、华盛顿大学、耶鲁大学、纽约大学和卡内基梅隆大学的研究人员做了一个一个划时代的举动!他们将训练一个AI大模型的一切数据都开源了,包括数据和调试细节!

为此,今天详细介绍了OLMo,这是一个先进的、真正开放的AI大语言模型!

希望借此给其他的开源们做个好榜样,这才是 真 开源!

OLMo的特点

OLMo目前有两个版本1B和7B,65B正在路上,还未公布。

OLMo使用了Dolma这个开放的数据集进行预训练。Dolma是一个由3万亿个来自多样化的网络内容、学术出版物、代码、书籍和百科资料的令牌组成的开放数据集。它是目前最大的用于LLM训练的开放数据集。

OLMo提供了Paloma这个基准,用于评估开放的语言模型在多个不同领域的表现(从小众的艺术社区到关于心理健康的reddit论坛)。

在相同规模下,OLMo-7B评分还是可以的。

OLMo的所有开源资料

代码

https://github.com/allenai/OLMo

Weights

https://huggingface.co/allenai/0LMo-7B

Data

https://huggingface.co/datasets/allenai/dolma

Evaluation

https://github.com/allenai/0LMo-Eval

Adaptation

https://github.com/allenai/openinstruct

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OigV91BNOB9XhMrReqyU8uEw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券