首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

魔搭社区上线 Mistral AI 首个开源 MoE 模型 Mixtral-8x7B

据站长之家 12 月 14 日报道,Mistral AI 近日发布了首个开源 MoE 模型 Mixtral 8x7B,并宣布在魔搭社区上线。

Mixtral-8x7B 是一款混合专家模型(Mixtrue of Experts),由 8 个拥有 70 亿参数的专家网络组成,在能力上,Mixtral-8x7B 支持 32k token 上下文长度,支持英语、法语、意大利语、德语和西班牙语,拥有优秀的代码生成能力,可微调为指令跟随模型。该模型在 MT-Bench 评测上达到了 8.3 分,与 GPT3.5 相当。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OEkfdP5eeYVBSZfAzghpLqfw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券