3月11日,埃隆·马斯克承诺,他的公司 xAI 会把 AI 聊天机器人 Grok 开源给大家,现在,这承诺已经兑现了。
今天凌晨,马斯克的 xAI 宣布,他们的巨型模型 Grok-1 ——一个拥有 3140 亿参数量的混合专家(MoE)模型,连同模型的权重和网络架构,现已全面开源。
这一动作,也让 Grok-1 成为了目前世界上参数量最大的开源大语言模型。
Grok 是一个庞大的语言模型,拥有 3140 亿个参数,使其成为目前可用的最大的开源模型。作为对比,这是 OpenAI 2020年发布的被视为突破的 GPT-3 大小的两倍多。
Langchain 的 @Andrew Kean Gao 分享的图表中,你可以看到 Grok 的大小与其竞争对手相比有多么庞大。
但 Grok 不仅仅体量巨大,它还采用了专家混合 (MoE) 架构,允许它为不同任务策略性地激活其参数的子集。这理论上使它比传统的密集模型更高效和适应性强。
虽然有很多细节值得探讨,但首先记住这 5 个要点:
在这个 GitHub 仓库中解释了如何加载和运行 Grok-1 的指南。
克隆仓库到你的本地,开玩吧。
可以使用 torrent 客户端和此磁力链接下载权重:
magnet:?xt=urn:btih:5f96d43576e3d386c9ba65b883210a393b68210e&tr=https%3A%2F%2Facademictorrents.com%2Fannounce.php&tr=udp%3A%2F%2Ftracker.coppersurfer.tk%3A6969&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce
顺便说一句,有些人质疑为什么权重是通过 Bittorrent 磁力链接发布的。随着模型越来越大,这可能成为未来的常态。此外,通过 torrent 分发300 GB 数据比直接传输更便宜。
或从 HuggingFace 下载权重,并将其放置在“checkpoints”目录内。
打开命令行界面并运行以下命令来测试代码:
pip install -r requirements.txtpython run.py
需要注意的是,由于 Grok-1 模型的庞大体量——包含 3140 亿个参数,测试模型所使用的示例代码需要一台具有足够 GPU 内存的机器。
xAI 仓库中专家混合 (MoE) 层的当前实现未针对效率进行优化。这种实现是故意选择的,优先考虑模型正确性验证,避免开发自定义内核的需要。
如果你只是好奇 Grok 能做什么,它目前在 X 上可用,但仅对 Premium+ 用户开放,价格为每月16美元。
本次发布的代码和相关 Grok-1 权重根据 Apache 2.0 许可证授权。
Apache 2.0 许可证是一种宽松的免费软件许可证。该许可证允许对软件进行任何目的的使用,用户能够分发它、修改它,并分发软件的修改版本。
该许可证仅适用于此仓库中的源文件和 Grok-1 的模型权重。
就在之前,马斯克起诉 OpenAI 及其联合创始人 Sam Altman 和 Greg Brockman,指控他们背离了最初成立为非营利组织的使命,转而追求利润。
也有网友调侃,OpenAI 一点都不 Open。
Grok = OpenSource OpenAI = Closed Source
参考链接:
https://x.com/_SaxX_/status/1769593547349467288?s=20
https://x.com/itsandrewgao/status/1769454405852807432?s=20