文本生成

最近更新时间:2026-04-03 16:27:22

我的收藏

概述

文本生成是 TokenHub 最核心的能力之一,支持多种大语言模型,覆盖对话交互、内容创作、代码生成、推理分析等场景。
TokenHub 采用标准 OpenAI Chat Completions API 协议,您可以直接使用 OpenAI SDK 或任何兼容客户端接入。

接口地址

针对不同的地域,平台提供了不同的接入地址,以便于为您提供最稳定的接入。默认接入地址如下:
站点
接口地址
境内
https://tokenhub.tencentmaas.com
境外
https://tokenhub-intl.tencentmaas.com
同时平台提供了备用接入地址以确保异常情况下用户能顺利接入,当默认地址不可用时,您可以尝试切换为以下接入地址:
站点
接口地址
境内
https://tokenhub.tencentmaas.cn
境外
https://tokenhub-intl.tencentmaas.cn

鉴权方式

使用 API KEY 通过 Authorization: Bearer Header 鉴权。

请求参数

参数名
必选
类型
描述
model
String
服务 ID,可统一从在线推理服务、服务 ID 字段查看。
对于平台默认创建的服务,服务 ID 与模型名字相同,例如:deepseek-v3hunyuan-turboS-latest。
对于用户创建的自定义服务,服务 ID 格式为:ep-xxxxxxxx,可在 在线推理服务 页面查看。
messages
Array
聊天上下文消息数组,详细信息请参见 messages 参数说明
stream
Boolean
是否启用流式输出。
取值范围:true / false,默认值为 false
temperature
Float
输出随机性。
取值范围:[0.0, 2.0]
top_p
Float
输出多样性(核采样)。
取值范围:[0.0, 1.0]
max_tokens
Integer
限制最大输出 Token 数。
stop
Array of String
指定模型输出的停止序列。当生成结果命中任一指定序列时,模型将停止输出,且响应内容中不包含该停止序列。支持传入单个字符串或字符串数组,最多 4 个。
例如:让模型生成一个 10 条的清单,不希望它继续往下写第 11 条,此处可填写为:["11."] 。
tools
Array
Function Calling 工具定义列表。
tool_choice
String
工具调用策略:none(关闭) / auto(自动选择) / required(强制调用)
seed
Integer
随机种子,用于结果复现。在多次请求中使用相同的 seed 值,并且其他参数也保持一致时,模型更有可能返回一致或非常接近的结果。

messages 参数说明

消息数组中的每个对象包含以下字段:
字段
类型
描述
role
String
角色:system(系统提示)、user(用户)、assistant(助手)、tool(工具返回)
content
String
消息文本内容。
消息顺序规则[system(可选) → user → assistant → user → ...],必须以 user 角色结尾。

返回参数

参数名
类型
描述
id
String
请求唯一标识。
object
String
对象类型,固定 chat.completion
created
Integer
创建时间(Unix 时间戳)。
model
String
实际使用的模型名称。
choices
Array
模型针对同一次请求返回的候选结果列表,详情请参见 choices 数组元素
usage
Object
Token 消耗统计。

choices 数组元素

字段
类型
描述
index
Integer
选项索引。
message
Object
回复消息,包含 rolecontent
finish_reason
String
结束原因:stop(正常结束)、length(达到最大长度)、tool_calls(需要调用工具)

usage 对象

字段
类型
描述
prompt_tokens
Integer
输入 Token 数
completion_tokens
Integer
输出 Token 数
total_tokens
Integer
总 Token 数(按此计费)

示例

示例 1:基础对话

# 请将 YOUR_API_KEY 替换为您在前面步骤创建的 API KEY
# 请在 model 字段中更换您需要体验的服务 ID
curl -X POST 'https://tokenhub.tencentmaas.com/v1/chat/completions' \\
-H 'Authorization: Bearer YOUR_API_KEY' \\
-H 'Content-Type: application/json' \\
-d '{
"model": "deepseek-v3.1-terminus",
"messages": [
{"role": "user", "content": "你好,请介绍一下你自己"}
]
}'

返回示例

{"id":"5e9c7ae9-e0e4-4ec1-bbd0-22bcfda61e45","object":"chat.completion","model":"deepseek-v3.1-terminus","choices":[{"index":0,"message":{"role":"assistant","content":"你好!很高兴见到你!😊\\n\\n我是DeepSeek,由深度求索公司创造的AI助手。让我简单介绍一下自己:\\n\\n**我的特点:**\\n- 📚 知识截止到2024年7月,是DeepSeek的最新版本模型\\n- 💬 纯文本对话模型,专注于理解和生成文字内容\\n- 📁 支持文件上传功能——可以处理图像、txt、pdf、ppt、word、excel等文件,并从中读取文字信息\\n- 🌐 支持联网搜索(需要你在Web/App中手动开启)\\n- 💾 拥有128K的上下文长度,能记住我们较长的对话内容\\n\\n**我能帮你做什么:**\\n- 回答各种问题,进行深入讨论\\n- 协助写作、翻译、分析\\n- 处理上传的文档内容\\n- 提供学习、工作、生活方面的建议\\n\\n**重要提醒:**\\n- 我完全免费使用,没有任何收费计划\\n- 目前不支持语音功能\\n- 你可以通过官方应用商店下载App使用\\n\\n我的回复风格比较热情细腻,希望能给你带来温暖的交流体验!有什么想聊的或需要帮助的,尽管告诉我吧!✨"},"finish_reason":"stop"}],"usage":{"prompt_tokens":10,"completion_tokens":244,"total_tokens":254,"prompt_tokens_details":{"cached_token":0},"completion_tokens_details":{"reasoning_tokens":0}}}

示例 2:流式对话

# 请将 YOUR_API_KEY 替换为您在前面步骤创建的 API KEY
# 请在 model 字段中更换您需要体验的服务 ID
curl -X POST 'https://tokenhub.tencentmaas.com/v1/chat/completions' \\
-H 'Authorization: Bearer YOUR_API_KEY' \\
-H 'Content-Type: application/json' \\
-d '{
"model": "hunyuan-2.0-instruct-20251111",
"messages": [
{"role": "system", "content": "你是一个有帮助的 AI 助手。"},
{"role": "user", "content": "计算 1+1"}
],
"stream": true
}'
流式返回采用服务器发送事件 SSE(Server-Sent Events)格式:
data: {"id":"chatcmpl-abc123","choices":[{"index":0,"delta":{"role":"assistant","content":"1"},"finish_reason":null}]}

data: {"id":"chatcmpl-abc123","choices":[{"index":0,"delta":{"content":"+"},"finish_reason":null}]}

data: {"id":"chatcmpl-abc123","choices":[{"index":0,"delta":{"content":"1"},"finish_reason":null}]}

data: {"id":"chatcmpl-abc123","choices":[{"index":0,"delta":{"content":"="},"finish_reason":null}]}

data: {"id":"chatcmpl-abc123","choices":[{"index":0,"delta":{"content":"2"},"finish_reason":null}]}

data: {"id":"chatcmpl-abc123","choices":[{"index":0,"delta":{},"finish_reason":"stop"}]}

data: [DONE]

示例 3:System Prompt

# 请将 YOUR_API_KEY 替换为您在前面步骤创建的 API KEY
# 请在 model 字段中更换您需要体验的服务 ID
curl -X POST 'https://tokenhub.tencentmaas.com/v1/chat/completions' \\
-H 'Authorization: Bearer YOUR_API_KEY' \\
-H 'Content-Type: application/json' \\
-d '{
"model": "deepseek-v3.1-terminus",
"messages": [
{
"role": "system",
"content": "你是一个专业的英语翻译助手。将用户输入的中文翻译为英文,将英文翻译为中文。只返回翻译结果,不做解释。"
},
{
"role": "user",
"content": "今天天气真好"
}
]
}'

返回示例

{"id":"5d42fea3-413e-42ce-99b2-0d1595dae996","object":"chat.completion","model":"deepseek-v3.1-terminus","choices":[{"index":0,"message":{"role":"assistant","content":"The weather is really nice today."},"finish_reason":"stop"}],"usage":{"prompt_tokens":38,"completion_tokens":7,"total_tokens":45,"prompt_tokens_details":{"cached_token":0},"completion_tokens_details":{"reasoning_tokens":0}}}

示例 4:多轮对话

# 请将 YOUR_API_KEY 替换为您在前面步骤创建的 API KEY
# 请在 model 字段中更换您需要体验的服务 ID
curl -X POST 'https://tokenhub.tencentmaas.com/v1/chat/completions' \\
-H 'Authorization: Bearer YOUR_API_KEY' \\
-H 'Content-Type: application/json' \\
-d '{
"model": "deepseek-v3.1-terminus",
"messages": [
{"role": "user", "content": "请介绍一下量子计算"},
{"role": "assistant", "content": "量子计算是一种利用量子力学原理进行信息处理的计算方式..."},
{"role": "user", "content": "它和传统计算有什么区别?"}
]
}'

返回示例

{"id":"fda59c08-6a85-4514-bdbf-d77a8d68e018","object":"chat.completion","model":"deepseek-v3.1-terminus","choices":[{"index":0,"message":{"role":"assistant","content":"好的,这是一个非常核心的问题。量子计算和传统计算的根本区别在于它们处理信息的基本单位和工作原理。\\n\\n我们可以用一个非常经典的比喻来开始:\\n\\n* **传统计算机** 像是在一个巨大的**图书馆**里,一个**图书管理员**(CPU)在一条很长的走廊(总线)上奔跑,一次只能打开一个房间(内存地址),查看一本书(一个比特的数据),然后做出决定。\\n* **量子计算机** 则像是让**所有图书管理员**(量子比特)同时进入**所有房间**,并在一瞬间阅读**所有书籍的每一种可能的组合**,然后告诉你最终的结果。\\n\\n下面我们从几个关键维度进行详细对比:\\n\\n### 1. 基本信息单位:比特 vs. 量子比特\\n\\n| 特征 | 传统计算(比特) | 量子计算(量子比特) |\\n| :--- | :--- | :--- |\\n| **状态** | **二进制**:只能是 **0** 或 **1**。就像一盏灯,要么开,要么关。非常确定。 | **叠加态**:可以**同时**是0和1,或者说是0和1的任意概率组合。就像一盏同时处于开和关状态的“量子灯”。 |\\n| **表示方式** | 一个明确的、离散的值。 | 一个状态向量,用狄拉克符号表示为:\\\\|ψ⟩ = α\\\\|0⟩ + β\\\\|1⟩,其中α和β是复数,且\\\\|α\\\\|² + \\\\|β\\\\|² = 1。 |\\n| **核心差异** | **确定性**:每个比特在任何时刻都有明确的值。 | **概率性**:测量量子比特时,它会以 \\\\|α\\\\|² 的概率坍缩为0,以 \\\\|β\\\\|² 的概率坍缩为1。 |\\n\\n### 2. 工作原理:逻辑门 vs. 量子特性\\n\\n| 特征 | 传统计算 | 量子计算 |\\n| :--- | :--- | :--- |\\n| **操作方式** | 使用**逻辑门**(如与门、或门、非门)对比特进行运算。一次操作改变一个或一组比特的状态。 | 使用**量子逻辑门**对量子比特进行操作。这些操作是**可逆的**,并能利用叠加态进行**并行计算**。 |\\n| **核心优势** | **串行处理**:任务被分解为一系列步骤,按顺序执行。对于简单、逻辑清晰的任务效率极高。 | **量子并行性**:由于量子比特处于叠加态,一次量子操作可以**同时作用于所有可能的输入**。这是量子加速的根源。 |\\n| **独特现象** | 无 | **量子纠缠**:两个或多个量子比特可以形成一种神秘的关联,无论它们相距多远,对一个量子比特的测量会瞬间决定另一个的状态。这允许量子计算机将不同量子比特的状态紧密联系起来,进行高度协同的计算。 |\\n\\n### 3. 性能与适用领域\\n\\n| 特征 | 传统计算 | 量子计算 |\\n| :--- | :--- | :--- |\\n| **擅长任务** | - **通用计算**:办公软件、网页浏览、游戏\\u003cbr\\u003e- **逻辑控制**:操作系统、应用程序逻辑\\u003cbr\\u003e- **大部分数据处理**:数据库管理、电子表格 | - **特定领域的指数级加速**:\\u003cbr\\u003e - **密码学**:破解RSA等加密算法(Shor算法)\\u003cbr\\u003e - **材料模拟**:精确模拟分子和材料的量子性质\\u003cbr\\u003e - **优化问题**:物流路线规划、金融投资组合优化\\u003cbr\\u003e - **人工智能**:加速机器学习训练 |\\n| **计算复杂度** | 对于某些复杂问题(如大数分解),传统算法需要**指数级**增长的时间。 | 对于特定问题,量子算法可将复杂度降至**多项式**级别,实现“量子优越性”。 |\\n| **输出结果** | 精确、确定的结果。 | 通常是**概率性**的结果。由于需要测量,我们得到的是一个可能正确的答案,因此算法通常需要多次运行以提高置信度。 |\\n\\n### 4. 物理实现与挑战\\n\\n| 特征 | 传统计算机 | 量子计算机 |\\n| :--- | :--- | :--- |\\n| **硬件基础** | 基于**晶体管**(半导体),技术成熟,可大规模集成(如CPU有数十亿晶体管)。 | 需要能保持量子态的物理系统,如:超导电路、离子阱、光量子等。技术尚在早期。 |\\n| **主要挑战** | 功耗、散热、晶体管尺寸接近物理极限(摩尔定律放缓)。 | **量子退相干**:量子态极其脆弱,极易受环境(如热、振动)干扰而失去量子特性。需要极低温(接近绝对零度)和高度隔离的环境。 |\\n| **错误纠正** | 错误率极低,纠错相对简单(如奇偶校验)。 | 错误率很高,需要复杂的**量子纠错码**,用多个物理量子比特来编码一个逻辑量子比特,开销巨大。 |\\n\\n### 总结表格\\n\\n| 对比维度 | 传统计算 | 量子计算 |\\n| :--- | :--- | :--- |\\n| **基本单位** | 比特 (0 或 1) | 量子比特 (叠加态:0和1的叠加) |\\n| **操作方式** | 逻辑门(串行) | 量子门(并行) |\\n| **核心原理** | 布尔逻辑 | 叠加、纠缠、干涉 |\\n| **结果输出** | 确定性 | 概率性 |\\n| **擅长领域** | 通用任务、逻辑控制 | 特定复杂问题(如模拟、优化、密码破译) |\\n| **技术成熟度** | 非常成熟,广泛应用 | 早期阶段,主要用于研究和特定计算 |\\n| **与用户关系** | **替代关系**:量子计算机**不是**用来取代你的手机或笔记本电脑的。它更像一个**专用加速器**,用于解决传统计算机在可预见未来内都无法解决的特定难题。未来,我们可能通过云端访问量子计算机,让它处理最复杂的部分,而传统计算机负责日常任务和用户交互。 |\\n\\n简单来说,传统计算机是“精准的快枪手”,而量子计算机是“能同时探索所有可能性的先知”。它们各有千秋,将在未来很长一段时间内协同工作。"},"finish_reason":"stop"}],"usage":{"prompt_tokens":32,"completion_tokens":1321,"total_tokens":1353,"prompt_tokens_details":{"cached_token":0},"completion_tokens_details":{"reasoning_tokens":0}}}

示例 5:Function Calling(工具调用)

# 请将 YOUR_API_KEY 替换为您在前面步骤创建的 API KEY
# 请在 model 字段中更换您需要体验的服务 ID
curl -X POST 'https://tokenhub.tencentmaas.com/v1/chat/completions' \\
-H 'Authorization: Bearer YOUR_API_KEY' \\
-H 'Content-Type: application/json' \\
-d '{
"model": "deepseek-v3.1-terminus",
"messages": [
{"role": "user", "content": "北京今天天气怎么样?"}
],
"tools": [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "获取指定城市的天气信息",
"parameters": {
"type": "object",
"properties": {
"city": {
"type": "string",
"description": "城市名称,如:北京"
}
},
"required": ["city"]
}
}
}
],
"tool_choice": "auto"
}'
当模型决定调用工具时,返回:
{
"choices": [
{
"message": {
"role": "assistant",
"content": null,
"tool_calls": [
{
"id": "call_abc123",
"type": "function",
"function": {
"name": "get_weather",
"arguments": "{\\"city\\": \\"北京\\"}"
}
}
]
},
"finish_reason": "tool_calls"
}
]
}
将工具执行结果返回模型,继续对话:
{
"model": "deepseek-v3",
"messages": [
{"role": "user", "content": "北京今天天气怎么样?"},
{"role": "assistant", "content": null, "tool_calls": [{"id": "call_abc123", "type": "function", "function": {"name": "get_weather", "arguments": "{\\"city\\": \\"北京\\"}"}}]},
{"role": "tool", "tool_call_id": "call_abc123", "content": "{\\"temperature\\": 22, \\"weather\\": \\"晴\\", \\"humidity\\": 45}"}
]
}

示例 6:使用 Python SDK

from openai import OpenAI

client = OpenAI(
# 请将 YOUR_API_KEY 替换为您在前面步骤创建的 API KEY
api_key="YOUR_API_KEY",
base_url="https://tokenhub.tencentmaas.com/v1"
)

# 基础对话
response = client.chat.completions.create(
# 请在 model 字段中更换您需要体验的服务 ID
model="deepseek-v3.1-terminus",
messages=[
{"role": "system", "content": "你是一个有帮助的助手。"},
{"role": "user", "content": "请用一句话解释什么是大语言模型"}
]
)
print(response.choices[0].message.content)

示例 7:使用 Node.js SDK

import OpenAI from 'openai';

const client = new OpenAI({
// 请将 YOUR_API_KEY 替换为您在前面步骤创建的 API KEY
apiKey: 'YOUR_API_KEY',
baseURL: 'https://tokenhub.tencentmaas.com/v1',
});

async function main() {
const response = await client.chat.completions.create({
// 请在 model 字段中更换您需要体验的服务 ID
model: 'deepseek-v3.1-terminus',
messages: [
{ role: 'system', content: '你是一个有帮助的助手。' },
{ role: 'user', content: '请用一句话解释什么是大语言模型' },
],
});
console.log(response.choices[0].message.content);
}
main();

错误码

HTTP 状态码
错误码
错误说明
400
invalid_request_error
请求参数有误
401
authentication_error
API Key 无效
403
model_not_available
模型不存在或未开通
429
rate_limit_exceeded
请求频率超限
500
engine_server_error
引擎内部错误
503
service_unavailable
服务暂时不可用

支持的模型

文本生成支持的完整模型列表请参见 模型列表,常用模型如:
模型
model 值
特点
DeepSeek-V3.2
deepseek-v3.2
第三代通用模型,128K 上下文
DeepSeek-R1
deepseek-r1-0528
深度推理模型
HY 2.0 Think
hunyuan-2.0-thinking-20251109
旗舰思考模型
GLM-5
glm-5
智谱旗舰模型,Agent 任务能力出色
Kimi-K2.5
kimi-k2.5
万亿参数 MoE 模型

下一步

图像生成接口,请参见 图像生成
视频生成接口,请参见 视频生成
3D 生成接口,请参见 3D 生成