DeepSeek 是由深度求索公司推出的大语言模型。其中:
本文将介绍如何通过 腾讯云 TI 平台,快速部署 DeepSeek 系列模型。完成模型部署后,即可与模型进行对话体验;或以 API 形式进行调用,接入 AI 应用中。
腾讯云 TI 平台已上架 DeepSeek 全系模型,详见下表。
模型名称 | 参数量 | 激活参数量 | 上下文窗口 | 推理资源推荐 |
---|---|---|---|---|
DeepSeek-V3 | 671B | 37B | 128K | 多机分布式部署,节点数量:2个,单节点配置:HCCPNV6 机型 |
DeepSeek-R1 | 671B | 37B | 128k | 多机分布式部署,节点数量:2个,单节点配置:HCCPNV6 机型 |
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | - | - | 12C44GB 1卡A10 |
DeepSeek-R1-Distill-Qwen-7B | 7B | - | - | 12C44GB 1卡A10 |
DeepSeek-R1-Distill-Llama-8B | 8B | - | 128K | 12C44GB 1卡A10 |
DeepSeek-R1-Distill-Qwen-14B | 14B | - | - | 16C96G 1卡A100 |
DeepSeek-R1-Distill-Qwen-32B | 32B | - | - | 32C192G 2卡A100 |
DeepSeek-R1-Distill-Llama-70B | 70B | - | 128K | 164C948G 8卡A100 |
备注:如需要使用 HCCPNV6 机型,请联系您所对接的腾讯云销售或售前架构师进行开通。
平台限时免费开放 DeepSeek 模型的免部署在线体验,支持 DeepSeek-R1 和 DeepSeek-R1-Distill-Qwen-1.5B 两款模型,便于开发者直观比较“最大杯”和“最小杯”的性能差异。进入 DeepSeek 系列模型详情页面后,选择顶部“模型体验”的 Tab 即可进入在线对话体验页面。
对于其他模型,可按下方模型部署实践自主部署对应模型后体验。
下文我们将选用尺寸相对最小的 DeepSeek-R1-Distill-Qwen-1.5B 模型进行部署实践。其他模型的操作流程类似,仅需注意算力资源的配置差异。
3. 在模型详情页面,单击新建在线服务,跳转至“模型服务 > 在线服务 > 创建服务”页面配置部署参数。
4. 按页面提示填写配置信息,参考如下:
5. 授权并同意《腾讯云 TI-ONE 训练平台服务协议》,单击底部启动服务,正式发起服务部署。
1. 服务部署完成后,在“模型服务 > 在线服务”页面的列表中,其状态将显示为“运行中”。DeepSeek-R1-Distill-Qwen-1.5B 模型的部署时长预计为1-2分钟。
2. 单击列表中的在线体验,进入模型快速体验页面。可通过前端页面直接提问,体验模型效果。
腾讯云 TI 平台在线服务模块内置了接口调用测试功能。此外,您还可以使用命令行等工具测试调用 API。测试完成后,您可以以 API 调用方式将模型接入 AI 应用。下文将对模型推理 API 的测试及接入进行示例说明。
1. 在“模型服务 > 在线服务”页面的列表中,单击刚部署的服务的名称,跳转到服务详情页。
2. 进入服务详情页的“服务调用”Tab,在页面底部可看到“接口信息”版块。
3. 在“接口信息”版块的输入框中,输入接口和请求信息,进行接口测试。
{
"model": "ms-xxxxxxxx",
"messages":
[
{
"role": "user",
"content": "描述一下你对人工智能的理解。"
}
]
}
4. 完成信息输入后,单击发送请求,稍作等待,“请求响应”框中将显示模型返回的响应结果:
1. 在上述的“接口信息”版块中,在下图位置1处输入接口名。输入完成后,单击位置2处的复制按钮,复制完整的 API 调用命令头。
2. 在命令头最后追加参数 -d'{REQ_BODY}',得到完整命令。其中 {REQ_BODY} 为请求体,请按照上文中“使用平台在线测试功能调用 API”的第 3 点给出的格式填写。最终编写成的完整命令应如下方代码所示:
curl -X POST https://ms-xxxxxxxx-xxxxxxxx.gw.ap-shanghai.ti.tencentcs.com/ms-xxxxxxxx/v1/chat/completions
-H 'Content-Type: application/json'
-d'{
"model": "ms-xxxxxxxx",
"messages":
[
{
"role": "user",
"content": "描述一下你对人工智能的理解。"
}
]
}'
3. 将完整命令输入到已连接到公网的计算设备的命令行工具中并执行,命令行中将返回模型的输出。
完成模型部署后,如果您需要在您的 AI 应用中接入已部署的模型服务,可以将服务 API 的信息配置到相关平台或系统中。下文以Cherry Studio为例,介绍如何将服务 API 接入应用中。
Cherry Studio 是一个支持多模型服务的开源桌面客户端,可以将多服务集成至桌面 AI 对话应用中。本文仅以此为例介绍 API 调用。如您需要商用 Cherry Studio,请仔细阅读其开源软件协议。
1. 进入您在 TI 平台已部署模型服务的“服务详情页 > 服务调用”Tab,在页面较上方位置找到“调用地址”字段,并单击最右侧复制按钮复制。
2. 下载并安装 Cherry Studio。完成安装后,打开 Cherry Studio,进入产品主页,并单击左下角的设置按钮,跳转到产品设置页。
3. 进入产品设置页后,单击页面中间下方的添加:
4. 单击添加后,需要在弹出的“添加提供商”对话框中输入信息,其中,“提供商名称”可自由填写,提供商类型需选择“OpenAI”,填好后单击确定:
5. 按照第4点要求成功添加提供商后,将自动跳转到该提供商的配置菜单,本文中示例为“腾讯云 TI 平台”。请注意:TI 平台当前的鉴权方式和 OpenAI 有所不同,因此仅支持以未开启鉴权方式将 API 接入 Cherry Studio。在未开启鉴权的前提下,进行如下配置:
6. 单击添加后,将弹出“添加模型”对话框,在对话框中输入要求的信息。其中,模型 ID 需配置为 TI 平台已部署服务的服务组 ID(获取方式见“使用平台在线测试功能调用 API”第 3 点,该字段以“ms-”作为前缀),接着单击添加模型:
7. 按照第6点的要求成功添加模型后,单击左上方对话按钮,回到对话页面:
8. 单击对话页面顶部的模型选择按钮,单击后弹出模型列表,选择刚刚添加的模型:
9. 现在,可以通过 Cherry Studio 和在 TI 平台部署的模型进行对话了:
您可以通过访问“模型服务 > 在线服务 > 服务详情”页面查看并管理推理服务。包括但不限于:停止/重启/删除服务、查看服务配置信息、实例列表、监控图表、容器事件、日志、更新记录等。详细操作指引可参考在线服务运营。
对于 DeepSeek 的其他模型,部署流程与前述类似,主要区别在于填写服务参数时配置的资源规格。请参考大模型推理所需资源指南进行资源的合理配置。如您需要部署参数量较大的模型如 DeepSeek R1、V3,则需要使用 HCCPNV6 机型,该机型需联系您所对接的腾讯云销售或售前架构师进行开通。
基于已部署的“DeepSeek-R1-Distill-Qwen-1.5B”和“DeepSeek-R1”模型服务,我们尝试使用一个相同的问题,简要对比一下大小模型的推理效果。
在我的厨房里,有一张桌子,上面放着一个杯子,杯子里有一个球。我把杯子移到了卧室的床上,并将杯子倒过来。然后,我再次拿起杯子,移到了主房间。现在,球在哪里?
从响应结果中可以明显看出,拥有更大参数量的 DeepSeek-R1 模型在推理效果上更胜一筹,其正确推理出了杯子倒扣时球会掉出并留在床上,即使杯子随后被移动至房间。而参数量较小的 DeepSeek-R1-Distill-Qwen-1.5B 模型仍然认为球在杯中。
另一方面,相比 DeepSeek-R1 模型,更小参数的 DeepSeek-R1-Distill-Qwen-1.5B 模型的响应速度更快、占用资源更少、部署时长更短,在处理较为简单的任务时,仍是不错的选择。
其中,DeepSeek-R1-Distill-Qwen-1.5B 的部署时长预计为1-2分钟,DeepSeek-R1 预计为9-10分钟(模型需预加载到节点的本地数据盘中)。
本文系转载,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文系转载,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。