首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

杨立昆转发点赞,法国版OpenAI的‘逆天’表现引热议

近日,在谷歌Cloud Next大会上,被誉为“欧洲版OpenAI”的Mistral AI悄然展示了其最新成果——Mixtral 8x22B大模型。这款模型的参数规模高达1760亿,成为市场上参数规模第二大的开源模型,仅次于马斯克的Grok-1。

Mixtral 8x22B由8个专家模型组合而成,每个模型的参数规模为220亿,整个模型的文件大小约为262GB。在性能测评方面,Mixtral 8x22B在MMLU(大规模多任务语言理解)评测中登顶开源模型榜首,同时在Hellaswag、TruthfulQA、GSM8K等多项测评中也取得了超越Llama 2 70B、GPT-3.5以及Claude 3 Sonnet的成绩。

据了解,Mixtral 8x22B的发布是近日大模型厂商们发布的第三个重要型号,此前OpenAI和谷歌分别更新了视觉版GPT-4 Turbo和Gemini 1.5 Pro。此外,有消息称Meta计划在下个月发布Llama 3。

Mixtral 8x22B的发布在开源社区引起了热烈反响。该模型在发布后不久便上架了开源社区Hugging Face,供用户进一步训练和部署。AI搜索平台Perplexity Labs和开源平台Together AI都迅速为该模型提供了支持。

值得一提的是,Mixtral 8x22B的运行效率也得到了广泛认可。AI科学家贾扬清表示,通过合理的量化,该模型可以在4个A100/H100显卡上运行,甚至实际上只需3张A100显卡就足够应对。同时,苹果机器学习研究员Awni Hannun也证实,Mixtral 8x22B在苹果的机器学习框架MLX上使用M2 Ultra芯片运行效果良好。

此外,出身巴黎的Meta首席AI科学家立昆转发Damien Henry帖文。据悉,2018年,杨立昆获得图灵奖,成为AI领域最具影响力的人物之一。

此次Mixtral 8x22B的成功发布,不仅展示了Mistral AI在AI技术领域的强大实力,也进一步推动了开源大模型的发展。同时,它也反映出法国乃至整个欧洲在AI研究和创新方面的活力和潜力。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O0X276evromTvzhrvsI5iVVQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券