OpenClaw

最近更新时间:2026-04-03 16:27:22

我的收藏
OpenClaw 是一款开源的本地 AI 代理框架,能让 AI 从“回答问题”进化为“动手执行任务”。它支持在 Windows、macOS 和 Linux 上自主运行,通过内置工具和可扩展的插件体系,自动完成文件整理、邮件处理、代码编写等操作。
腾讯云 Coding Plan 支持在 OpenClaw 中使用,可参考本文进行配置及使用。

前置条件

在开始配置前,请确保您已订阅 Coding Plan 套餐并获取 API Key,可参见 Coding Plan 概述

安装 OpenClaw

您需要根据实际环境类型,执行对应命令安装 OpenClaw。
macOS/Linux
Windows
curl -fsSL https://openclaw.ai/install.sh | bash
在 PowerShell 中执行以下命令。
iwr -useb https://openclaw.ai/install.ps1 | iex
根据提示信息完成 OpenClaw 配置,参考配置如下。
向导配置项
配置内容
I understand this is powerful and inherently risky. Continue?
选择 Yes
Onboarding mode
选择 QuickStart
Model/auth provider
选择 Skip for now,后续可以配置。
Filter models by provider
选择 All providers
Default model
使用默认配置。
Select channel (QuickStart)
选择 Skip for now,后续可以配置。
Configure skills now? (recommended)
选择 No,后续可以配置。
Enable hooks?
按空格键选中选项,按回车键进入下一步。
How do you want to hatch your bot?
选择 Hatch in TUI

配置 Coding Plan

注意:
如果出现配置正常但是访问404,401等问题是因为 OpenClaw 的缓存问题导致,您可以直接修改本地配置文件,重启 OpenClaw gateway,配置文件路径如下:
Windows:C:\\Users\\<用户名>\\.openclaw\\openclaw.json
macOS/Linux:~/.openclaw/openclaw.json
1. 执行以下命令打开 OpenClaw 的 WebUI,然后在 WebUI 的左侧菜单栏中选择 Config > Raw
openclaw dashboard
2. 在 openclaw.json 配置项中增加 models.providers 的配置。
baseUrl:参考样例,使用 Coding Plan 兼容 OpenAI 接口协议的 Base URL(https://api.lkeap.cloud.tencent.com/coding/v3) 配置。
<USER_API_KEY>:替换成您自己的 API Key。
"models": {
"mode": "merge",
"providers": {
"tencent-coding-plan": {
"baseUrl": "https://api.lkeap.cloud.tencent.com/coding/v3",
"apiKey": "<USER_API_KEY>",
"api": "openai-completions",
"models": [
{
"id": "tc-code-latest",
"name": "Auto",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 196608,
"maxTokens": 32768
},
{
"id": "hunyuan-2.0-instruct",
"name": "Tencent HY 2.0 Instruct",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 128000,
"maxTokens": 16000
},
{
"id": "hunyuan-2.0-thinking",
"name": "Tencent HY 2.0 Think",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 128000,
"maxTokens": 32000
},
{
"id": "hunyuan-t1",
"name": "Hunyuan-T1",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 64000,
"maxTokens": 32000
},
{
"id": "hunyuan-turbos",
"name": "hunyuan-turbos",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 32000,
"maxTokens": 16000
},
{
"id": "minimax-m2.5",
"name": "MiniMax-M2.5",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 196608,
"maxTokens": 32768
},
{
"id": "kimi-k2.5",
"name": "Kimi-K2.5",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 262144,
"maxTokens": 32768
},
{
"id": "glm-5",
"name": "GLM-5",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 202752,
"maxTokens": 16384
}
]
}
}
}
3. 在 openclaw.json 配置项中修改 agents.default,增加模型列表信息,其中:primary 字段指定的模型可以根据您的偏好进行配置。
"agents": {
"defaults": {
"model": {
"primary": "tencent-coding-plan/glm-5"
},
"models": {
"tencent-coding-plan/tc-code-latest": {},
"tencent-coding-plan/hunyuan-2.0-instruct": {},
"tencent-coding-plan/hunyuan-2.0-thinking": {},
"tencent-coding-plan/hunyuan-t1": {},
"tencent-coding-plan/hunyuan-turbos": {},
"tencent-coding-plan/minimax-m2.5": {},
"tencent-coding-plan/kimi-k2.5": {},
"tencent-coding-plan/glm-5": {}
}
}
}
4. 在界面上单击 Save 保存配置,保存完成后,单击 Update 使配置生效。




使用 OpenClaw

OpenClaw 支持通过 WebUI 和 TUI 的形式进行交互使用。
WebUI
您可以通过 openclaw dashboard 命令打开 WebUI,单击 WebUI 左侧的聊天,即可进行交互。



TUI
您可以通过 openclaw tui 命令打开 TUI 进行交互。