总览
腾讯混元宣布最新开源的 MoE 模型 Hunyuan-Large 正式上线,腾讯云 TI 平台第一时间开放接入,为用户和开发者提供一站式精调和部署服务。
Hunyuan-Large 拥有 3890 亿总参数量、520 亿激活参数量,并支持 256K 上下文长度,是目前业界参数规模最大、性能领先的开源 MoE 模型。基于 MoE(Mixture of Experts)结构的优越性,混元 Large 在推理速度和参数规模之间取得平衡,显著提升了模型的处理能力。测试结果显示,Hunyuan-Large 在 CMMLU、MMLU、CEval、AGIEval 等多学科评测集以及中英文 NLP 任务、代码、数学等9大维度表现出色,超越 Llama3 和 Mixtral 等主流开源模型。
对应您使用 Hunyuan-Large 的不同场景,TI 平台及腾讯云均能满足您的需求。
场景1:在您的大模型应用接入 Hunyuan-Large 基础模型 API
如果未经精调的 Hunyuan-Large 的效果已能满足您的需求,我们推荐您使用腾讯云提供的 Hunyuan-Large 公有 API 。您可以将 Hunyuan-Large 公有 API 接入您的大模型应用,感受 Hunyuan-Large 基础模型在您的实际应用中产生的作用。
请注意:精调后的专属 Hunyuan-Large 大模型 API 需通过 TI 平台发布。
场景2:基于自有数据精调 Hunyuan-Large 并发布为 API
您可以参考文档 精调 Hunyuan-Large 实践教程 逐步完成 Hunyuan-Large 模型 SFT 精调 + 部署全流程,包括数据准备、模型精调训练、精调后模型直接发布为 API 等步骤。
基于 TI 平台精调出的专属 Hunyuan-Large 大模型,可以在平台内快速发布为 API,以供您接入应用增强生产力。
您可通过腾讯云提供的镜像下载 Hunyuan-Large 大模型: