首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

大模型初创企业 MiniMax 将发布国内首个 MoE 大模型,对标 GPT-4

据《科创板日报》12 月 28 日报道,中国大模型创业企业 MiniMax 副总裁魏伟在数字中国论坛成立大会暨数字化发展论坛的一场分论坛上透露称,将于近期发布国内首个基于 MoE(Mixture-of-Experts)架构的大模型,对标 OpenAI GPT-4。MoE 全称专家混合,是一种深度学习技术,它通过将多个模型直接结合在一起,以加快模型训练的速度,获得更好的预测性能。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OTQvQX1Ns4apZQAm4OApg3pQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券