文档中心>云服务器

企业 AI 智能体管控台 ClawPro 自定义模型接入指南

最近更新时间:2026-04-08 11:16:22

我的收藏

操作场景

您在企业 AI 智能体管控台 ClawPro 上创建个人 OpenClaw 后,可参考本文接入自定义大模型。


操作步骤

接入自定义 AI 提供商

1. 进入 ClawPro 用户端后,找到需要配置的 OpenClaw 实例,选择详细配置

2. 在模型(Models)中选择自定义模型,参考下方参数说明或示例填写自定义模型相关字段,并单击保存,即可完成自定义模型的配置。


自定义模型参数说明

参数
说明
示例
provider
提供商名称,您可自定义命名
siliconflow
base_url
模型服务的基础 API 访问地址
https://api.siliconflow.cn/v1
api
API 协议类型:
openai-completions 用于兼容 OpenAI Chat Completions API 的模型
anthropic-messages 用于兼容 Anthropic Messages API 的模型
openai-completions
api_key
模型提供商提供的 API KEY
sk-xxx
model.id
模型的唯一标识符
deepseek-ai/DeepSeek-V3.2
model.name
模型在 OpenClaw 内的显示名称
DeepSeek-V3.2



模型接入典型示例

MiniMax 模型

中国版
国际版
您可前往 MiniMax 中国站官网 获取 API-Key,本文以使用 MiniMax-M2.5模型、Anthropic 协议为例,可按照如下代码进行配置:
{
"provider": "minimax",
"base_url": "https://api.minimaxi.com/anthropic",
"api": "anthropic-messages",
"api_key": "your-api-key-here",
"model": { "id": "MiniMax-M2.5", "name": "MiniMax M2.5" }
}

您可前往 MiniMax 国际站官网 获取 API-Key,本文以使用 MiniMax-M2.5模型、Anthropic 协议为例,可按照如下代码进行配置:
{
"provider": "minimax",
"base_url": "https://api.minimax.io/anthropic",
"api": "anthropic-messages",
"api_key": "your-api-key-here",
"model": { "id": "MiniMax-M2.5", "name": "MiniMax M2.5" }
}

硅基流动模型

本文以使用 DeepSeek V3.2 模型、OpenAI 协议为例,可按照如下代码进行配置:
{
"provider": "siliconflow",
"base_url": "https://api.siliconflow.cn/v1",
"api": "openai-completions",
"api_key": "your-api-key-here",
"model": {
"id": "deepseek-ai/DeepSeek-V3.2",
"name": "DeepSeek-V3.2"
}
}

Kimi Code 模型

本文以使用 Kimi-K2.5 模型、Anthropic 协议为例,可按照如下代码进行配置:
注意
在非官方(Kimi CLI)中使用 Kimi Code 会员权益可能被 Kimi 视为滥用和违规,导致会员权益停用或账号封禁。详情请参见 Kimi Code 使用范围。
{
"provider": "kimicode",
"base_url": "https://api.kimi.com/coding",
"api": "anthropic-messages",
"api_key": "your-api-key-here",
"model": {
"id": "kimi-k2.5",
"name": "Kimi K2.5"
}
}

Google Gemini 模型

本文以使用 Gemini 3 Flash 模型、OpenAI 协议为例,可按照如下代码进行配置:
{
"provider": "google",
"base_url": "https://generativelanguage.googleapis.com/v1beta/openai",
"api": "openai-completions",
"api_key": "your-api-key-here",
"model": {
"id": "gemini-3-flash-preview",
"name": "Gemini 3 Flash"
}
}

OpenAI (GPT) 模型

以使用 GPT-5.2 模型、OpenAI 协议为例,可按照如下代码进行配置:
{
"provider": "openai",
"base_url": "https://api.openai.com/v1",
"api": "openai-completions",
"api_key": "your-api-key-here",
"model": {
"id": "gpt-5.2",
"name": "GPT-5.2"
}
}

Anthropic Claude 模型

本文以使用 Claude Opus 4.6 模型、Anthropic 协议为例,可按照如下代码进行配置:
您也可参考 官方文档 进行配置。
{
"provider": "anthropic",
"base_url": "https://api.anthropic.com",
"api": "anthropic-messages",
"api_key": "your-api-key-here",
"model": {
"id": "claude-opus-4-6",
"name": "Claude Opus 4.6"
}
}

xAI Grok 模型

本文以使用 Grok 4.1 模型、OpenAI 协议为例,可按照如下代码进行配置:
{
"provider": "xai",
"base_url": "https://api.x.ai/v1",
"api": "openai-completions",
"api_key": "your-api-key-here",
"model": {
"id": "grok-4.1",
"name": "Grok 4.1"
}
}

OpenRouter 模型

本文以使用 NVIDIA: Nemotron 3 Nano 30B A3B 模型、OpenAI 协议为例,可按照如下代码进行配置:
{
"provider": "openrouter",
"base_url": "https://openrouter.ai/api/v1",
"api": "openai-completions",
"api_key": "your-api-key-here",
"model": {
"id": "nvidia/nemotron-3-nano-30b-a3b:free",
"name": "NVIDIA: Nemotron 3 Nano 30B A3B"
}
}

其他模型

如上述示例中无期望模型,您也可以使用以下通用模板接入任何兼容 OpenAI/Anthropic 协议的模型:
{
"provider": "provider_name",
"base_url": "baseurl",
"api": "API协议",
"api_key": "your-api-key-here",
"model": {
"id": "model_id",
"name": "model_name"
}
}

常见错误码

错误码
原因
解决方案
401 not authorized
API-Key 不正确
前往模型提供商检查写入的 API-Key 是否正确。
429/500
余额不足
充值或检查 API-Key 是否正确。
rate_limit
速率限制
更换提供商,或联系提供商获取更大配额。
名词释义:
RPM(Requests Per Minute)表示每分钟请求数。
TPM(Tokens Per Minute)表示每分钟处理的 Tokens 数量。
404
base_url 不正确
查看提供商文档寻找兼容 OpenAI Chat Completions API 或 Anthropic Messages API 的 base_url 地址。
403
该模型不支持此服务器地域
更换服务器地域为模型支持的地域或更换模型。
注意:
模型响应慢
若您选择了非中国大陆地域的云服务器、通道,或模型提供商,则可能会因跨境网络原因导致延迟较高。若您选择深度思考模型可能因上下文过多导致模型思考时间过长,推荐您选择非思考模型/快思考模型进行替代。
Token 消耗过快
OpenClaw 在调用模型时会携带较多上下文信息,以保证任务连贯性与准确性,因此 Token 消耗可能较高。建议在使用时关注 Token 用量与计费情况。