腾讯云 DeepSeek OpenAI 对话接口

最近更新时间:2025-05-29 23:09:42

我的收藏
腾讯云知识引擎原子能力 DeepSeek OpenAI 对话接口兼容了 OpenAI 的接口规范,这意味着您可以直接使用 OpenAI 官方提供的 SDK 来调用。您仅需要将 base_url 和 api_key 替换成相关配置,不需要对应用做额外修改,即可无缝将您的应用切换到相应的大模型。
base_url:https://api.lkeap.cloud.tencent.com/v1
api_key:需在控制台API KEY页面进行创建,操作步骤请参考 API KEY 管理
接口请求地址完整路径:https://api.lkeap.cloud.tencent.com/v1/chat/completions
调用情况可在控制台中查看。计费详情请参考计费概述
说明:
默认该接口下的单账号限制为:
QPM:15,000
TPM:1,200,000

在线体验

如您希望在网页内直接体验 DeepSeek 模型对话,推荐您前往腾讯云智能体开发平台,使用 DeepSeek 联网助手

已支持的模型

DeepSeek R1模型

模型
参数量
最大上下文长度
最大输入长度
最大输出长度
思维链最大输出长度
DeepSeek-R1
671B
96k
64k
16k(不含思维链长度)
默认4k
32k
DeepSeek-R1-0528
671B
96k
64k
16k(不含思维链长度)
默认4k
32k

DeepSeek V3模型

模型
参数量
最大上下文长度
最大输出长度
DeepSeek-V3
671B
64k
16k(不含思维链长度)
默认4k
DeepSeek-V3-0324
671B
128k
16k(不含思维链长度)
默认4k

DeepSeek V2模型

模型
参数量
上下文长度
最大输出长度
默认输出长度
DeepSeek-Prover-V2
671B
64k
16k
4k

DeepSeek-R1(model 参数值为 deepseek-r1)

DeepSeek-R1 为671B 模型,使用强化学习训练,推理过程包含大量反思和验证,思维链长度可达数万字。 该系列模型在数学、代码以及各种复杂逻辑推理任务上推理效果优异,并为用户展现了完整的思考过程。

DeepSeek-R1-0528(model 参数值为deepseek-r1-0528)

DeepSeek-R1-0528为671B 模型,架构优化与训练策略升级后,相比上一版本在代码生成、长文本处理和复杂推理领域提升明显。

DeepSeek-V3(model 参数值为 deepseek-v3)

DeepSeek-V3 为671B 参数 MoE 模型,在百科知识、数学推理等多项任务上优势突出。

DeepSeek-V3-0324(model 参数值为 deepseek-v3-0324)

DeepSeek-V3-0324 为671B 参数 MoE 模型,在编程与技术能力、上下文理解与长文本处理等方面优势突出。
说明:
相比于 DeepSeek-V3,DeepSeek-V3-0324仅更新了模型权重,未增加参数量。总模型大小为685B,其中包括671B 的主模型权重和14B 的多令牌预测(MTP)模块权重,后续均描述主模型参数量。

快速开始

API 使用前提:已在腾讯云控制台 API Key管理 开通知识引擎原子能力并创建 API Key。如果通过 SDK 调用,需要安装 OpenAI 。
如果您首次使用知识引擎原子能力,请参考 API Key管理 进行知识引擎原子能力的开通,并将示例代码中的 model 参数修改为上表中您需要调用的模型名称。
由于 deepseek-r1 模型的思考过程可能较长,可能导致响应慢或超时,建议您优先使用流式输出方式调用。

安装SDK

您需要确保已安装 Python 3.8或以上版本。
安装或更新 OpenAI Python SDK
运行以下命令:
pip install -U openai
如果运行失败,请将 pip 改为pip3。

示例代码片段

非流式请求

Python
NodeJS
cURL
import os
from openai import OpenAI

client = OpenAI(
# 请用知识引擎原子能力API Key将下行替换为:api_key="sk-xxx",
api_key="LKEAP_API_KEY", # 如何获取API Key:https://cloud.tencent.com/document/product/1772/115970
base_url="https://api.lkeap.cloud.tencent.com/v1",
)

completion = client.chat.completions.create(
model="deepseek-r1", # 此处以 deepseek-r1 为例,可按需更换模型名称。
messages=[
{'role': 'user', 'content': '9.9和9.11谁大'}
]
)

# 通过reasoning_content字段打印思考过程
print("思考过程:")
print(completion.choices[0].message.reasoning_content)
# 通过content字段打印最终答案
print("最终答案:")
print(completion.choices[0].message.content)
import OpenAI from "openai";

const openai = new OpenAI(
{
// 请用知识引擎原子能力API Key将下行替换为:apiKey: "sk-xxx",
apiKey: "LKEAP_API_KEY", // 如何获取API Key:https://cloud.tencent.com/document/product/1772/115970
baseURL: "https://api.lkeap.cloud.tencent.com/v1"
}
);
const completion = await openai.chat.completions.create({
model: "deepseek-r1", // 此处以 deepseek-r1 为例,可按需更换模型名称。
messages: [
{ role: "user", content: "9.9和9.11谁大" }
],
});
console.log("思考过程:")
console.log(completion.choices[0].message.reasoning_content)
console.log("最终答案:")
console.log(completion.choices[0].message.content)

curl https://api.lkeap.cloud.tencent.com/v1/chat/completions \\
-H "Content-Type: application/json" \\
-H "Authorization: Bearer sk-xxxxxxxxxxx" \\
-d '{
"model": "deepseek-r1",
"messages": [
{
"role": "user",
"content": "你好"
}
],
"stream": false
}'



多轮对话

腾讯云智能体开发平台提供的 DeepSeek API 默认不会记录您的历史对话信息。多轮对话功能可以让大模型“拥有记忆”,满足如追问、信息采集等需要连续交流的场景。如果您使用 deepseek-r1 模型,会收到 reasoning_content 字段(思考过程)与 content(回复内容),您可以将 content 字段通过{'role': 'assistant', 'content':API 返回的 content} 添加到上下文,无需添加 reasoning_content 字段。
Python
NodeJS
cURL
import os
from openai import OpenAI

client = OpenAI(
# 请用知识引擎原子能力API Key将下行替换为:api_key="sk-xxx",
api_key="LKEAP_API_KEY", # 如何获取API Key:https://cloud.tencent.com/document/product/1772/115970
base_url="https://api.lkeap.cloud.tencent.com/v1",
)

# 通过 messages 数组实现上下文管理
messages = [
{'role': 'user', 'content': '你好'},
{'role': 'assistant', 'content': '你好,有什么可以帮助你的?'},
{'role': 'user', 'content': '9.9和9.11哪个大'}
]

completion = client.chat.completions.create(
model="deepseek-r1", # 此处以 deepseek-r1 为例,可按需更换模型名称。
messages=messages
)

print("="*20+"第一轮对话"+"="*20)
# 通过reasoning_content字段打印思考过程
print("="*20+"思考过程"+"="*20)
print(completion.choices[0].message.reasoning_content)
# 通过content字段打印最终答案
print("="*20+"最终答案"+"="*20)
print(completion.choices[0].message.content)

messages.append({'role': 'assistant', 'content': completion.choices[0].message.content})
messages.append({'role': 'user', 'content': '你是谁'})
print("="*20+"第二轮对话"+"="*20)
completion = client.chat.completions.create(
model="deepseek-r1", # 此处以 deepseek-r1 为例,可按需更换模型名称。
messages=messages
)
# 通过reasoning_content字段打印思考过程
print("="*20+"思考过程"+"="*20)
print(completion.choices[0].message.reasoning_content)
# 通过content字段打印最终答案
print("="*20+"最终答案"+"="*20)
print(completion.choices[0].message.content)
import OpenAI from "openai";

const openai = new OpenAI(
{
// 请用知识引擎原子能力API Key将下行替换为:apiKey: "sk-xxx",
apiKey: "LKEAP_API_KEY", // 如何获取API Key:https://cloud.tencent.com/document/product/1772/115970
baseURL: "https://api.lkeap.cloud.tencent.com/v1"
}
);
const completion = await openai.chat.completions.create({
model: "deepseek-r1", // 此处以 deepseek-r1 为例,可按需更换模型名称。
messages: [
{ role: "user", content: "你好"},
{ role: "assistant", content: "你好,有什么可以帮助你的?"},
{ role: "user", content: "9.9和9.11谁大" }
],
});
console.log("思考过程:")
console.log(completion.choices[0].message.reasoning_content)
console.log("最终答案:")
console.log(completion.choices[0].message.content)

curl https://api.lkeap.cloud.tencent.com/v1/chat/completions \\
-H "Content-Type: application/json" \\
-H "Authorization: Bearer sk-xxxxxxxxxxx" \\
-d '{
"model": "deepseek-r1",
"messages": [
{
"role": "user",
"content": "你好"
},
{
"role": "assistant",
"content": "你好,有什么可以帮助你的?"
},
{
"role": "user",
"content": "9.9和9.11谁大"
}
],
"stream": true
}'



流式输出

deepseek-r1 模型可能会输出较长的思考过程,为了降低超时风险,建议您使用流式输出方式调用 deepseek-r1 模型。
Python
NodeJS
cURL
from openai import OpenAI
import os

# 初始化OpenAI客户端
client = OpenAI(
# 请用知识引擎原子能力API Key将下行替换为:api_key="sk-xxx",
api_key="LKEAP_API_KEY", # 如何获取API Key:https://cloud.tencent.com/document/product/1772/115970
base_url="https://api.lkeap.cloud.tencent.com/v1",
)

def main():
reasoning_content = "" # 定义完整思考过程
answer_content = "" # 定义完整回复
is_answering = False # 判断是否结束思考过程并开始回复

# 创建聊天完成请求
stream = client.chat.completions.create(
model="deepseek-r1", # 此处以 deepseek-r1 为例,可按需更换模型名称
messages=[
{"role": "user", "content": "9.9和9.11谁大"}
],
stream=True
)

print("\\n" + "=" * 20 + "思考过程" + "=" * 20 + "\\n")

for chunk in stream:
# 处理usage信息
if not getattr(chunk, 'choices', None):
print("\\n" + "=" * 20 + "Token 使用情况" + "=" * 20 + "\\n")
print(chunk.usage)
continue

delta = chunk.choices[0].delta

# 处理空内容情况
if not getattr(delta, 'reasoning_content', None) and not getattr(delta, 'content', None):
continue

# 处理开始回答的情况
if not getattr(delta, 'reasoning_content', None) and not is_answering:
print("\\n" + "=" * 20 + "完整回复" + "=" * 20 + "\\n")
is_answering = True

# 处理思考过程
if getattr(delta, 'reasoning_content', None):
print(delta.reasoning_content, end='', flush=True)
reasoning_content += delta.reasoning_content
# 处理回复内容
elif getattr(delta, 'content', None):
print(delta.content, end='', flush=True)
answer_content += delta.content

if __name__ == "__main__":
try:
main()
except Exception as e:
print(f"发生错误:{e}")
import OpenAI from "openai";

const openai = new OpenAI({
// 请用知识引擎原子能力API Key将下行替换为:apiKey: "sk-xxx",
apiKey: "LKEAP_API_KEY", //如何获取API Key:https://cloud.tencent.com/document/product/1772/115970
baseURL: "https://api.lkeap.cloud.tencent.com/v1"
});

async function main() {
let reasoningContent = ""; // 定义完整思考过程
let answerContent = ""; // 定义完整回复
let isAnswering = false; // 判断是否结束思考过程并开始回复

const completion = await openai.chat.completions.create({
model: "deepseek-r1", // 此处以 deepseek-r1 为例,可按需更换模型名称
messages: [
{ role: 'user', content: '9.9和9.11谁大' }
],
stream: true,
});

console.log("\\n" + "=".repeat(20) + "思考过程" + "=".repeat(20) + "\\n");

for await (const chunk of completion) {
// 处理usage信息
if (!chunk.choices?.length) {
console.log("\\n" + "=".repeat(20) + "Token 使用情况" + "=".repeat(20) + "\\n");
console.log(chunk.usage);
continue;
}

const delta = chunk.choices[0].delta;

// 处理空内容情况
if (!delta.reasoning_content && !delta.content) {
continue;
}

// 处理开始回答的情况
if (!delta.reasoning_content && !isAnswering) {
console.log("\\n" + "=".repeat(20) + "完整回复" + "=".repeat(20) + "\\n");
isAnswering = true;
}

// 处理思考过程
if (delta.reasoning_content) {
process.stdout.write(delta.reasoning_content);
reasoningContent += delta.reasoning_content;
}
// 处理回复内容
else if (delta.content) {
process.stdout.write(delta.content);
answerContent += delta.content;
}
}
}

main().catch(console.error);
curl https://api.lkeap.cloud.tencent.com/v1/chat/completions \\
-H "Content-Type: application/json" \\
-H "Authorization: Bearer sk-xxxxxxxxxxx" \\
-d '{
"model": "deepseek-r1",
"messages": [
{
"role": "user",
"content": "你好"
}
],
"stream": true
}'



注意事项

稳定性

若执行后出现“concurrency exceeded”的响应,则表明您的请求遭遇了限流。这通常是由于服务器资源暂时不足所致。建议您稍后再试,届时服务器负载可能已得到缓解。

DeepSeek-R1

不支持设置的参数和功能
Function Calling、JSON Output、对话前缀续写、上下文硬盘缓存。
不支持的参数
presence_penalty、frequency_penalty、logprobs、top_logprobs。
支持的参数
top_p、temperature、max_tokens。
参数默认值
temperature:0.6(取值范围是[0:2])
top_p:0.6(取值范围是(0:1])
不建议设置 System Prompt(来自官方说明)。

DeepSeek-V3

不支持设置的参数和功能
JSON Output、对话前缀续写、上下文硬盘缓存。
不支持的参数
presence_penalty、frequency_penalty、logprobs、top_logprobs。
支持的参数以及功能
top_p、temperature、max_tokens 参数。
Function Calling 功能
支持 tools 参数
支持 tool_choice 参数(支持 auto、none、Forced Function(不支持 required 功能))
参数默认值
temperature:0.6(取值范围是[0:2])
top_p:0.6(取值范围是(0:1])
敬请关注后续动态。

Function Calling

tools 参数

tool_choice 参数:支持 auto、none、Forced Function(不支持 required 功能)

注意:
1. OpenApi 兼容格式的调用方式下,仅 V3 系列模型支持 Function Calling 功能,R1 模型暂不支持。
2. SDK 的调用方式下,V3 模型和R1 模型均不支持 Function Calling 功能。

联网搜索

本接口支持联网搜索,前提是开启 DeepSeek API 的服务。若需要使用相关联网搜索功能,首先需要开启联网搜索后付费开关或者购买搜索服务的资源包,然后通过传入 enable_search 参数体验 DeepSeek 的联网搜索能力。
1. 首先开启 DeepSeek API 的服务,进入 原子能力控制台 开启 DeepSeek 的后付费开关。



2. 进入 原子能力控制台 打开联网搜索后付费开关或者购买搜索服务的资源包。
开启搜索服务的后付费开关:



购买搜索服务的资源包:



3. 调用 DeepSeek API 接口的时候,增加 enable_search 参数体验带联网搜索能力的 DeepSeek API。
输入示例:
client = OpenAI(
# 请用知识引擎原子能力API Key将下行替换为:api_key="sk-xxx",
api_key="LKEAP_API_KEY", # 如何获取API Key:https://cloud.tencent.com/document/product/1772/115970
base_url="https://api.lkeap.cloud.tencent.com/v1",)
completion = client.chat.completions.create(
model="deepseek-v3", # 此处以deepseek-v3为例,可按需更换模型名称。
messages=[
{
"role": "user",
"content": "深圳今日天气"
}
],
extra_body={
"enable_search": True, # 开启联网搜索
}
)
输出示例:
{'id': '0c9eba283a56d0add6084e24263056b7', 'choices': [{'finish_reason': 'stop', 'index': 0, 'logprobs': None, 'message': {'content': '根据深圳市气象局(台)的预报,2025年4月29日深圳的天气情况如下:\\n\\n今天深圳多云间阴天,早晚有轻雾,部分时间可见阳光,偏东风最大阵风6-7级,气温22-29℃。相对湿度在40%-70%之间。\\n\\n具体来说,今天的气温预计在22℃到29℃之间,风向为偏东风,风力为2-3级,沿海、高地和海区阵风可达5-6级。此外,今天日出时间为05:52,日落时间为18:49。\\n\\n需要注意的是,今天早晚有轻雾,部分时间可见阳光,建议关注清劲偏东风的影响。\\n\\n总结:今天深圳的天气以多云间阴天为主,气温适中,早晚有轻雾,风力较大,适合外出但需注意防风。', 'refusal': None, 'role': 'assistant', 'annotations': None, 'audio': None, 'function_call': None, 'tool_calls': None, 'search_results': [{'index': 1, 'url': 'http://weather.sz.gov.cn/?COLLCC=2354144265&', 'name': '深圳市气象局(台)', 'snippet': '深圳市气象局(台) 今日预报 实况 29.4℃ 12-20时 多云;气温27-30℃;东风2-3级,沿海、高地和海区阵风5-6级;相对湿度40%-70%。 05:52 日出 18:49 日落 6天 距立夏剩 06:40 月出 20:41 月落 4月29日12时56分 深圳福田国家基本气象站 东南偏东风 小于三级 相对湿度 0mm 24小时降雨量 十天预报 逐时预报 展开 【天气提示】 预计29日多云间阴天,早晚有轻雾,部分时间可见阳光,偏东风最大阵风6-7级,气温22-29℃;30日多云到阴天,局地有短时阵雨,早晚清凉;展望五一假期,初期和末期有(雷)阵雨,局地雨势较大,中期以多云为主,间中有短时阵雨,午间较热。建议关注29日清劲偏东风的影响。 明天 4-30 周四 5-1 周五 5-2 周六 5-3 周日 5-4 周一 5-5 周二 5-6 周三 5-7 周四 5-8 13时 多云 14时 多云 15时 多云 16时 多云 17时 多云 18时 多云 19时 多云 20时 多云 21时 少云 热 点 推 荐 工作动态 公告公示 重要资讯 公开目录 媒体聚焦 庆祝中华全国总工会成立100周年暨全国劳动模范和先进工作者表彰大会隆重举行 习近平发表重要讲话 04/29 广交会上看外贸新动能 04/29 新,高质量发展看动能 04/29 一季度规模以上工业企业利润由降转增 04/29 暴涨96%!一季度“中国游 中国购”持续升温 04/29 李强主持召开国务院常务会议 部署开展美丽河湖保护与建设行动 研究进一步加强困境儿童福利保障有关举措 讨论《中华人民共和国医疗保障法(草案)》 决定核准浙江三门三期工程等核电项目 04/28 经济日报:消费市场保持升温势头|中国经济新看点 04/27 规范涉企执法,怎样防止问题反弹、提振企业信心?', 'icon': '', 'site': 'weather.sz.gov.cn', 'published_time': 1745856000}]}}], 'created': 1745929940, 'model': 'deepseek-v3-aisearch', 'object': 'chat.completion', 'service_tier': None, 'system_fingerprint': None, 'usage': {'completion_tokens': 189, 'prompt_tokens': 3366, 'total_tokens': 3555, 'completion_tokens_details': None, 'prompt_tokens_details': None}}


深度思考

只要调用 deepseek-r1 模型即代表开启深度思考(深度思考过程通过 reasoning_content 返回)。

查看更多完整示例

Python
NodeJS
Go

错误码

错误码
错误信息
说明
20031
not enough quota
您的账号目前没有可用资源。为了继续使用,请先 开通 并完成付费。
20034
concurrency exceeded
您的请求遭遇了限流。这通常是由于服务器资源暂时不足所致。建议您稍后再试,届时服务器负载可能已得到缓解。
20059
input content too long
输入长度超过上下文长度,请减小输入内容的长度

错误示例

{"error":{"message":"not enough quota","type":"runtime_error","param":null,"code":"20031"}}

安全审查示例

finish_reason = content_filter 表示输出内容触发了安全审核机制。这通常发生在系统检测到某些输入或输出内容可能包含敏感信息或不适当的语言,因此自动启动了审核流程以确保内容的安全性和适宜性。在这种情况下,系统会对相关内容进行仔细审查,以防止不当信息的传播。

非流式输出示例:

{"id":"26a58a8ab6e7712937ad542436b4b97a","object":"chat.completion","created":1740379897,"model":"deepseek-r1","choices":[{"index":0,"message":{"role":"assistant","content":"你好,我无法给到相关内容。"},"finish_reason":"content_filter"}],"usage":{"prompt_tokens":0,"completion_tokens":0,"total_tokens":0}}

流式输出示例:

data: {"id":"d2d486bfdb31b1b6f55c8b5cbeb492d3","object":"chat.completion.chunk","created":1740379627,"model":"deepseek-r1","choices":[{"index":0,"delta":{"role":"assistant","content":"你好,我无法给到相关内容。"},"finish_reason":"content_filter"}],"usage":{"prompt_tokens":0,"completion_tokens":0,"total_tokens":0}}