模型介绍

最近更新时间:2025-06-23 14:47:21

我的收藏
腾讯云智能体开发平台支持以下模型,您可根据您的需求进行选择。

标准模式

平台按照模型用途,将模型分为两大类:
1. 思考模型:用于意图识别,主要影响意图识别的效果。
2. 生成模型:主要影响阅读理解与答案生成的效果。

生成模型

腾讯云智能体开发平台目前已接入精调知识大模型、混元大模型、DeepSeek 等十余种模型,各模型详情及适用场景如下:
模型名称
输入输出
场景描述
精调知识大模型高级版
最大输入7k
最大输出1~4k
1. 适用场景:针对企业知识问答场景精调训练,擅长多模态知识问答,适合图文表答案关联输出、数学计算、逻辑推理、表格问答等复杂场景有需求的场景。
2. 优势能力:支持图文关联输出、数据计算、表格问答、标签提取。
精调知识大模型标准版
最大输入7k
最大输出1~4k
1. 适用场景:针对企业知识问答场景精调训练,擅长多模态知识问答。性价比相对更高,适合需要同时平衡效果、价格的场景。
2. 优势能力:支持图文关联输出。
混元大模型高级版
最大输入28k
最大输出4k
1. 万亿级参数规模 MOE-32k 长文模型。
2. 在各种 benchmark 上达到绝对领先的水平,复杂指令和推理,具备复杂数学能力,支持 functioncall,在多语言翻译、金融法律医疗等领域应用重点优化。
混元大模型标准版
最大输入30k
最大输出2k
1. 采用更优的路由策略,同时缓解了负载均衡和专家趋同的问题。
2. MOE-32k 性价比相对更高,在平衡效果、价格的同时,可实现对长文本输入的处理。
混元大模型Turbo版
最大输入28k
最大输出4k
混元 turbo 模型默认版本,采用全新的混合专家模型(MoE)结构,相比混元大模型高级版推理效率更快,效果表现更强。
混元大模型长文本版
最大输入250k
最大输出6k
1. 采用更优的路由策略,同时缓解了负载均衡和专家趋同的问题。长文方面,大海捞针指标达到99.9%。
2. MOE-256k 在长度和效果上进一步突破,极大的扩展了可输入长度。
混元大模型角色扮演版
最大输入28k
最大输出4k
混元最新版角色扮演模型, 基于混元模型结合角色扮演场景数据集进行增训,在角色扮演场景具有更好的基础效果。
DeepSeek-R1-0528
64k
DeepSeek-R1模型最新版,在理解意图、文案生成、编程能力和逻辑推理方面均有显著提升。能更好地理解复杂指令中的约束条件和内在逻辑。支持长时思考,可以胜任更复杂、耗时的任务。
DeepSeek-R1
64k
强化学习(RL)驱动的推理模型,在数学、代码和推理任务中与 OpenAI-o1 表现相当。与 DeepSeek 助手深度思考模式为同款模型。
DeepSeek-V3-0324
64k
DeepSeek-V3模型最新版本,基于创新的混合专家(MoE)架构与多头潜在注意力(MLA)技术,在推理能力、代码生成和中文语义理解三大核心领域实现全面升级。
DeepSeek-V3
64k
拥有6710 亿参数的混合专家(MoE)语言模型,采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,结合无辅助损失的负载平衡策略,优化推理和训练效率。

思考模型

标准模式思考模型包含:
模型名称
输入输出
场景描述
意图识别模型高级版
最大输入8k
最大输出4k
适用于同时配置问答、文档、工作流的场景,意图识别效果更佳,并且支持在角色指令中自定义配置意图,但可能会增加一定的对话耗时。
DeepSeek-V3
64k
拥有6710 亿参数的混合专家(MoE)语言模型,采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,结合无辅助损失的负载平衡策略,优化推理和训练效率。
DeepSeek-V3-0324
64k
DeepSeek-V3模型最新版本,基于创新的混合专家(MoE)架构与多头潜在注意力(MLA)技术,在推理能力、代码生成和中文语义理解三大核心领域实现全面升级。

Multi-Agent模式

在 Multi-Agent 模式下,可以选择每个 Agent 的模型,模型主要影响 Agent 的任务规划和工具调用。
Agent 模型包含:
模型名称
输入输出
场景描述
精调 Function-Call 模型
32k
模型具备任务规划、工具选择调用以及反思纠错能力,适用于复杂问题的规划与执行。
DeepSeek-R1-0528
64k
DeepSeek-R1模型最新版,在理解意图、文案生成、编程能力和逻辑推理方面均有显著提升。能更好地理解复杂指令中的约束条件和内在逻辑。支持长时思考,可以胜任更复杂、耗时的任务。
DeepSeek-R1
64k
强化学习(RL)驱动的推理模型,在数学、代码和推理任务中与 OpenAI-o1 表现相当。与 DeepSeek 助手深度思考模式为同款模型。
DeepSeek-V3-0324
64k
DeepSeek-V3模型最新版本,基于创新的混合专家(MoE)架构与多头潜在注意力(MLA)技术,在推理能力、代码生成和中文语义理解三大核心领域实现全面升级。