概述
模型提供商是模型路由与用户实际调用的具体模型之间的桥梁。通过模型路由,用户可以灵活选择不同的调用渠道和模型提供商,满足多样化的 AI 应用需求。
支持的提供商类型
模型提供商 | 说明 | 资源消耗 | 状态 |
平台预置模型提供商 | 直接调用模型路由预置的模型 | 消耗模型路由提供的免费 Token 或用户付费的资源配额 | 即将推出 |
BYOK 原厂模型提供商 | 通过模型路由调用原厂 AI 平台提供商的模型 | 在原厂 AI 平台或算力平台上消耗用户的 Token | 已上线 |
BYOK 第三方代理提供商 | 通过模型路由调用第三方 AI 平台上的模型 | 在第三方 AI 平台上消耗用户的 Token | 已上线 |
BYOK 用户自建模型提供商 | 通过模型路由调用用户私有化部署的模型 | 在用户自建的 AI 平台上消耗用户自己的 Token | 已上线 |
BYOK 模式下预置的模型提供商和模型
注意:
预置的模型可能因供应商调整而未能及时更新。如果未找到您期望的模型名称,可通过 BYOK 第三方代理提供商自行配置 URL 及模型名称。
模型提供商 | 模型 |
DeepSeek | deepseek-chat |
| deepseek-reasoner |
阿里百炼 | Qwen3.6-Plus |
| Qwen3.5-Plus |
| Qwen3.5-Flash |
| Qwen3-Max |
| Qwen3-VL-Plus |
| Qwen3-VL-Flash |
智谱 AI | GLM-5 |
| GLM-5-Turbo |
| GLM-4.7 |
| GLM-4.7-FlashX |
| GLM-4.6 |
| GLM-4.5 |
| GLM-4.5-Air |
| GLM-4.7-Flash |
月之暗面 | kimi-k2.5 |
| moonshot-v1-8k-preview |
| moonshot-v1-8k |
| kimi-k2-thinking |
| moonshot-v1-auto |
| moonshot-v1-32k-preview |
| kimi-k2-turbo-preview |
| kimi-k2-0711-preview |
| kimi-k2-0905-preview |
| kimi-k2-thinking-turbo |
| moonshot-v1-32k |
| moonshot-v1-128k |
| kimi-latest |
| moonshot-v1-128k-preview |
MiniMax | MiniMax-M2.7 |
| MiniMax-M2.7-highspeed |
| MiniMax-M2.5 |
| MiniMax-M2.5-highspeed |
| MiniMax-M2.1 |
| MiniMax-M2.1-highspeed |
| MiniMax-M2 |
火山引擎 | doubao-seed-2-0-pro-260215 |
| doubao-seed-2-0-lite-260215 |
| doubao-seed-2-0-mini-260215 |
| doubao-seed-2-0-code-preview-260215 |
最佳实践建议
对于稳定性和可靠性要求较高的场景,建议使用 BYOK 原厂模型提供商。
对于需要灵活性和定制化的场景,建议使用 BYOK 第三方代理提供商或用户自建模型。
定期检查模型提供商列表,确保使用最新版本的模型。